33 research outputs found

    Interopérabilité des entreprises. Vers l'utilisation d'ontologies éphémères

    Get PDF
    International audienceCet article propose, premièrement, une revue des recherches en cours dans le domaine de l'interopérabilité d'entreprise. Une focalisation est ensuite opérée sur les travaux récents portant sur le concept d'interopérabilité d'entreprise selon l'approche « entreprises fédérées » et utilisant la notion émergente d'« ontologie éphémère ». Un rappel des notions de simulation distribuée, du standard HLA et des ontologies permet d'éclairer les concepts qui viendront supporter la mise en oeuvre de ces travaux. Leur complémentarité est démontrée pour construire une plateforme logicielle Agent/HLA, basée sur l'usage d'ontologies éphémères, afin de permettre l'interopérabilité d'une nouvelle génération de systèmes d'information agiles. En détail, les ontologies permettent l'échange et la réconciliation des informations « en ligne », point fondamental de l'approche fédérée. Au niveau implémentation, le standard HLA, initialement dédié à la simulation distribuée, est transposé pour assurer l'interopérabilité des systèmes d'information d'entreprises, en réutilisant l'expérience acquise en systèmes distribués. Enfin, une étude compare un ensemble de logiciels, facilitant l'interopérabilité d'entreprises, avec celui spécifié dans cet article. Des limitations sont identifiées et des perspectives proposées

    Modélisation de Systèmes Complexes par Composition : Une démarche hiérarchique pour la co-simulation de composants hétérogènes

    Get PDF
    This work deals with complex system Modeling and Simulation (M&S). The particularity of such systems is the numerous heterogeneous entities in interaction involved inside them. This particularity leads to several organization layers and scientific domains. As a consequence, their study requests many perspectives (different temporal and spatial scales, different domains and formalisms, different granularities...). The challenge is the rigorous integration of these various system perspectives inside an M&S process. In other words, the difficulty is to define successive steps to follow in order to integrate several points of view inside the same model. Multi-modeling and co-simulation are promising approaches to do so. The underlying problem is to define a modular and hierarchical process fitted with a rigorous way to integrate heterogeneous components and which is supported by a software environment that covers the whole M&S cycle.MECSYCO (Multi-agent Environment for Complex SYstem CO-simulation) is a co-simulation middleware focusing on the reuse of existing models from other software. It relies on a software and formal DEVS-based wrapping, provides heterogeneity handling mechanisms and ensures a decentralized and modular co-simulation. MECSYCO deals with the heterogeneous component integration need but its M&S process does not have all the properties above-mentioned. Notably, the hierarchical modeling ability is missing.To overcome this, we propose to fit MECSYCO with a descriptive multi-modeling and co-simulation process that allows the hierarchical design of multi-models using models from other software. Our process is split into three steps: the atomic model integration, the composition (hierarchical multi-model construction) and finally the experimentation. We adopt a descriptive approach where a description file is linked to each product of these steps, these documents enable to manipulate them.The use of description files completes the integration steps, allows a hierarchical and modular multi-model design and isolates the experiments.Then we set up a development environment based on Domain Specific Languages (DSL) to support the description work, and we automate the transition from an experiment description to its effective co-simulation. This is a Model-Driven Engineering approach which allows us to put into practice our contribution by facilitating the modelers' work and by avoiding implementation mistakes.Our contribution fits MECSYCO with the hierarchical design property and with a DSL-based M&S environment while keeping its rigorous integration process and its modularity. Our work is evaluated on two examples. The first one renews a hybrid highway multi-model already implemented in MECSYCO, it shows the conservation of the middleware former properties. The second one is a simple thermal smart-building multi-model which highlights the incremental design of a multi-model and the integration of new components while putting our entire approach into practice.Le contexte de ce travail est la modélisation et simulation (M&S) de systèmes complexes. Ces systèmes se caractérisent par un grand nombre d'entités hétérogènes en interaction faisant apparaitre plusieurs niveaux d'organisation et plusieurs domaines. Leur étude nécessite de combiner plusieurs points de vue (différentes échelles temporelles et spatiales, différents domaines scientifiques et formalismes, différents niveaux de résolution...).Le challenge est l'intégration rigoureuse de ces différents points de vue sur un système au sein d'une démarche de M&S. Dit autrement, le défi est de définir une marche à suivre permettant d'intégrer plusieurs perspectives au sein d'un même modèle. La multi-modélisation et la co-simulation sont deux approches prometteuses pour cela. La difficulté sous-jacente est de fournir une démarche de M&S modulaire, hiérarchique, dotée d'une approche d'intégration de composants hétérogènes rigoureuse et associée à un environnement logiciel supportant l'ensemble du cycle de M&S pour la mettre en pratique.MECSYCO (Multi-agent Environment for Complex SYstem CO-simulation) est un intergiciel de co-simulation se focalisant sur la réutilisation de modèles issus d'autres logiciels. Il se base sur une stratégie d'encapsulation logicielle et formelle fondée sur DEVS, fournit des mécanismes de gestion des hétérogénéités, et assure une co-simulation décentralisée et modulaire. MECSYCO répond au besoin d'intégration de composants hétérogènes au sein d'une co-simulation, mais ne propose pas de démarche complète comprenant l'ensemble des propriétés énoncées précédemment. Il manque notamment la possibilité de hiérarchiser. Pour pallier à ce manque, dans la continuité des travaux sur MECSYCO nous proposons une démarche de multi-modélisation et co-simulation descriptive autorisant la construction incrémentale de multi-modèles à partir de modèles issus d'autres logiciels. Notre démarche est décomposée en trois étapes : l'intégration des modèles atomiques, la composition (création hiérarchique du multi-modèle) et enfin l'expérimentation. Nous adoptons une approche descriptive où chaque élément produit lors de ces étapes est associé à une description permettant de le manipuler. L'utilisation des descriptions complète le processus d'intégration, permet la construction incrémentale et modulaire des multi-modèles, et isole l'expérimentation. Nous mettons ensuite en place un environnement de développement basé sur des langages dédiés aux descriptions, et nous automatisons le passage d'une description d'expérience à sa co-simulation effective. C'est une démarche d'Ingénierie Dirigée par les Modèles qui nous permet de mettre en pratique notre approche en facilitant le travail des modélisateurs et en évitant les erreurs d'implémentation.Nous apportons à MECSYCO la propriété de hiérarchisation et un environnement de développement tout en conservant l'intégration rigoureuse et la modularité. Nous évaluons notre contribution sur deux exemples. Le premier reprend un multi-modèle d'autoroute hybride implémenté dans MECSYCO, il montre la conservation des propriétés d'intégration. Le second est un multi-modèle simple de thermique de bâtiment intelligent, il illustre la construction incrémentale d'un multi-modèle et l'intégration de nouveaux composants tout en mettant en pratique l'ensemble de notre démarche

    Vers une approche orientée aspect d'ingénierie des besoins dans les organisations multi-entreprises

    Get PDF
    It is often difficult for a single Information System (IS) to accomplish complex requirements. One solution is to combine many different ISs and make them collaborate to realize this task. Information systems composition is an active ongoing area of research in the field of information systems. The result of IS composition produces one type of a so called Cooperative Information System (CIS). Its development requires a particular attention to process all emerging problems, especially the crosscutting concerns that pose difficulties to understand, maintain and reuse such cooperative systems. Moreover, the aspect paradigm is presented as a promising avenue for reusability. Thus, we argue that it is interesting to propose an aspect approach to build a new system in order to accomplish complex tasks based on the reuse of system’s artefacts previously developed. According to our best of knowledge few works have tackled this question. In this thesis, we present an aspect-oriented approach called AspeCiS, applied from the requirements engineering phase until the design phase, in order to develop a CIS from existing ISs by using their artifacts such as requirements, architectures and design. Therefore, this approach is opposed to conventional development ones in which the construction of a new system starts from nothing and needs reinventing everything every time.Le système d’information coopératif (SIC) est un élément central dans le domaine de la coopération interentreprises. Son développement nécessite une attention particulière afin de prendre en considération tous les problèmes émergeants, surtout celui des préoccupations transversales qui posent des difficultés pour la compréhension, la maintenance, l’évolution, et la réutilisation des systèmes développés. Dans les approches usuelles de développement, la construction de ce genre de système part de zéro et nécessite de tout reconstruire à chaque fois. Nos travaux de recherche dans cette thèse examinent comment une approche orientée aspect appliquée de la phase de recueil des exigences à la phase de conception peut être proposée comme un outil permettant de développer des SICs à partir de systèmes d’information (SIs) préalablement existants produits à l’occasion de développements antérieurs. L’utilisation du paradigme Aspect dans cette approche tente de réutiliser des artéfacts des SIs existants afin de développer le futur SIC supportant la coopération interentreprises

    Proposition et vérification formelle de protocoles de communications temps-réel pour les réseaux de capteurs sans fil

    Get PDF
    Les RCsF sont des réseaux ad hoc, sans fil, large échelle déployés pour mesurer des paramètres de l'environnement et remonter les informations à un ou plusieurs emplacements (nommés puits). Les éléments qui composent le réseau sont de petits équipements électroniques qui ont de faibles capacités en termes de mémoire et de calcul ; et fonctionnent sur batterie. Ces caractéristiques font que les protocoles développés, dans la littérature scientifique de ces dernières années, visent principalement à auto-organiser le réseau et à réduire la consommation d'énergie. Avec l'apparition d'applications critiques pour les réseaux de capteurs sans fil, de nouveau besoins émergent, comme le respect de bornes temporelles et de fiabilité. En effet, les applications critiques sont des applications dont dépendent des vies humaines ou l'environnement, un mauvais fonctionnement peut donc avoir des conséquences catastrophiques. Nous nous intéressons spécifiquement aux applications de détection d'événements et à la remontée d'alarmes (détection de feu de forêt, d'intrusion, etc), ces applications ont des contraintes temporelles strictes. D'une part, dans la littérature, on trouve peu de protocoles qui permettent d'assurer des délais de bout en bout bornés. Parmi les propositions, on trouve des protocoles qui permettent effectivement de respecter des contraintes temporelles mais qui ne prennent pas en compte les spécificités des RCsF (énergie, large échelle, etc). D'autres propositions prennent en compte ces aspects, mais ne permettent pas de garantir des bornes temporelles. D'autre part, les applications critiques nécessitent un niveau de confiance très élevé, dans ce contexte les tests et simulations ne suffisent pas, il faut être capable de fournir des preuves formelles du respect des spécifications. A notre connaissance cet aspect est très peu étudié pour les RcsF. Nos contributions sont donc de deux types : * Nous proposons un protocole de remontée d'alarmes, en temps borné, X-layer (MAC/routage, nommé RTXP) basé sur un système de coordonnées virtuelles originales permettant de discriminer le 2-voisinage. L'exploitation de ces coordonnées permet d'introduire du déterminisme et de construire un gradient visant à contraindre le nombre maximum de sauts depuis toute source vers le puits. Nous proposons par ailleurs un mécanisme d'agrégation temps-réel des alarmes remontées pour lutter contre les tempêtes de détection qui entraînent congestion et collision, et donc limitent la fiabilité du système. * Nous proposons une méthodologie de vérification formelle basée sur les techniques de Model Checking. Cette méthodologie se déroule en trois points, qui visent à modéliser de manière efficace la nature diffusante des réseaux sans fil, vérifier les RCsF en prenant en compte la non-fiabilité du lien radio et permettre le passage à l'échelle de la vérification en mixant Network Calculus et Model Checking. Nous appliquons ensuite cette méthodologie pour vérifier RTXP.Wireless Sensor Networks (WSNs) are ad hoc wireless large scale networks deployed in order to monitor physical parameters of the environment and report the measurements to one or more nodes of the network (called sinks). The small electronic devices which compose the network have low computing and memory capacities and run on batteries, researches in this field have thus focused mostly on self-organization and energy consumption reduction aspects. Nevertheless, critical applications for WSNs are emerging and require more than those aspects, they have real-time and reliability requirements. Critical applications are applications on which depend human lives and the environment, a failure of a critical application can thus have dramatic consequences. We are especially interested in anomaly detection applications (forest fire detection, landslide detection, intrusion detection, etc), which require bounded end to end delays and high delivery ratio. Few WSNs protocols of the literature allow to bound end to end delays. Among the proposed solutions, some allow to effectively bound the end to end delays, but do not take into account the characteristics of WSNs (limited energy, large scale, etc). Others, take into account those aspects, but do not give strict guaranties on the end to end delays. Moreover, critical applications require a very high confidence level, simulations and tests are not sufficient in this context, formal proofs of compliance with the specifications of the application have to be provided. The application of formal methods to WSNs is still an open problem. Our contributions are thus twofold : * We propose a real-time cross-layer protocol for WSNs (named RTXP) based on a virtual coordinate system which allows to discriminate nodes in a 2-hop neighborhood. Thanks to these coordinates it is possible to introduce determinism in the accesses to the medium and to bound the hop-count, this allows to bound the end to end delay. Besides, we propose a real-time aggregation scheme to mitigate the alarm storm problem which causes collisions and congestion and thus limit the network lifetime. * We propose a formal verification methodology based on the Model Checking technique. This methodology is composed of three elements, (1) an efficient modeling of the broadcast nature of wireless networks, (2) a verification technique which takes into account the unreliability of the wireless link and (3) a verification technique which mixes Network Calculus and Model Checking in order to be both scalable and exhaustive. We apply this methodology in order to formally verify our proposition, RTXP.VILLEURBANNE-DOC'INSA-Bib. elec. (692669901) / SudocSudocFranceF

    Application du concept des transactions pour la modélisation et la simulation multicoeur des systèmes sur puce

    Full text link
    Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.With the increasing complexity of SoCs, new challenges continue to emerge in the design of these systems in terms of formal verification and high-level synthesis. Several research efforts around SystemC, considered the de facto standard for system-level design, are underway to meet these new challenges. However, because of the complex concurrency model of SystemC, these challenges remain difficult tasks. Thus, we believe it is important to continue on a better footing by using a more effective concurrency model. Therefore, in this thesis, we study a design methodology that provides a better abstraction for modeling parallel components based on the concept of transaction. We show how, through simple reasoning about transactions, it becomes easier to apply formal verification, incremental refinement and high-level synthesis. In order to evaluate the effectiveness of this methodology, we set the goal to optimize the simulation speed of a transactional model by taking advantage of a multicore machine. We present a modeling and parallel simulation environment that we developed. We study different scheduling strategies in terms of parallelism and synchronization overhead. An experiment made on a Wi-Fi 802.11a transmitter model achieved a speed up of about 1.8 using two threads. With 8 threads, although the workload of individual transactions was not significant, we could reach a speed up equal to 4.6 which is a very promising result

    Spécification des objets partagés dans les systèmes répartis sans-attente

    Get PDF
    In large scale distributed systems, strong consistency criteria like sequential consistency and linearizability are often very expensive or even unachievable. This thesis investigates the best ways to specify the objects that are still possible to implement in these systems. We assert that it is still possible to separate their specification in two complementary facets: an abstract data type that specifies the functional aspect of the operations and a weak consistency criterion that describes the level of quality of service ensured by the object in its distributed environment. We illustrate these concepts by an implementation in the D programming language: abstract data types are described by classes in the program and consistency criteria are taken from a list in the CODS library.We also draw up a map of the space of weak consistency criteria, organised around three families of primary criteria (state locality, eventual consistency and validity) and three families of secondary criteria (update consistency, pipelined consistency and serializability). Each secondary criterion strenghtens two primary criteria, but the three criteria can not be implemented together in considered systems. We also study the effects of causality on these families.Dans les systèmes répartis à très grande échelle, les critères de cohérence forts comme la cohérence séquentielle et la linéarisabilité sont souvent trop coûteux, voire impossibles à obtenir. Dans cette thèse, nous nous posons la question de la spécification des objets que l'on peut tout de même obtenir. Nous soutenons qu'il est toujours possible de séparer leur spécification en deux facettes : un type de données abstrait qui spécifie l'aspect fonctionnel des opérations et un critère de cohérence faible qui décrit la qualité de service garantie par l'objet dans son environnement réparti. Nous illustrons ces concepts par une mise en oeuvre dans le langage D : les types de données abstraits sont les classes du programme et les critères de cohérence sont choisis dans une liste fournie par la bibliothèque CODS. Nous dressons une carte de l'espace des critères faibles organisée autour de trois familles de critères primaires (localité d'état, convergence et validité) et trois familles de critères secondaires (cohérence d'écritures, cohérence pipeline et sérialisabilité). Chaque critère secondaire renforce deux critères primaires, mais les trois critères primaires ne peuvent pas être implémentés ensembles dans les systèmes considérés. Nous étudions également l'effet de la causalité sur ces familles

    Intégration de la modélisation comportementale dans la conception par points de vue

    Get PDF
    View-based modeling is the main subject of this thesis. It is a variant of the object oriented modeling approach for the analysis and design of complex systems, focusing on the actors that use the system and decomposing the specification according to their needs. With this prospect, our team developed a UML profile named VUML (View based UML), which allows the elaboration of a unique and sharable model accessible according to the view of each of the system's actors. However the achieved work on the VUML profile does not tackle the behavior aspects of the modeling process. The VUML approach address the structural aspects related to the composition of views and to the sharing of data without dealing with the way these views will react, or how to be able to synchronize them in order to obtain the behavior of multiple-view objects (instances of a multi-view class). The achieved work in this thesis aims to fill this gap by providing new mechanism to the VUML profile that allows expressing the behavioral needs of a system. We will focus on describing the individual behavior of multi-view objects by state-machines that require adjustments of UML modeling concepts. To achieve this objective we introduced the concept of event probes, which allow to specify implicit communication between the view-objects via event observation. This allows decoupling the view specifications that are a priori strongly interconnected, and therefore allows them to be designed separately, in agreement with the VUML method recommendations, and then to be integrated without the need of making modifications. We first define the concept of event monitoring and identified the different types of probes and the appropriate parameters that characterize them. We also define a set of concepts that can extend and manipulate probes. Then we propose a UML-compatible representation of the introduced concepts in form of a profile named VxUML (extension of VUML). In addition to defining the profile elements (stereotypes, tagged value, predefined library classes), we have developed rules for proper formation of the static semantics using OCL to reduce ambiguity in the specification of such concepts. Afterwards, to demonstrate the usefulness of the concepts introduced, we developed a case study through which we sought to provide a full view-based model, addressing both structural and behavioral aspects. At the end, to concretely validate our approach in a model driven engineering setting, we developed a code generator that takes as input a specification developed in VxUML profile. This generator uses the techniques of model transformation related to the code generation, including transformation of platform independent models (PIM) to platform specific models (PSM), and transformation of PSMs to code; the current target language is Java. Finally, another contribution of this thesis is a process associated with VxUML. It is an approach that complements the approach associated with VUML (which deal only with structural aspects) to be able to use in methodical manner the new mechanisms dedicated to behavioral treatment. Now, the VxUML development process offers a complete view based modeling, that is, dealing with both structural and behavioral aspects. Keywords: View based modeling, VUML profile, VxUML profile, event observation, multi-view states machine, behavior composition.La modélisation par points de vue constitue la thématique générale de notre travail de thèse. C'est une approche de modélisation orientée objet, visant l'analyse et la conception des systèmes complexes avec une démarche centrée autour des acteurs interagissant avec le système. Notre équipe a ainsi développé un profil UML appelé VUML (View based UML), qui permet l'élaboration d'un modèle unique partageable à partir de vues associées aux points de vue des acteurs. Cependant, les travaux réalisés sur le profil VUML [Nassar, 05 ; Anwar, 09] ne couvrent pas les aspects comportementaux de la modélisation. En effet, – en proposant la notion de classe multivue – VUML traite les aspects structuraux liés à la composition des vues et au partage des données statiques sans prendre en compte la manière dont ces vues vont réagir, ni comment les synchroniser afin de représenter le comportement des objets multivue (instances d'une classe multivue). Les travaux effectués dans le cadre de cette thèse cherchent à combler ce manque en dotant le profil VUML de nouveaux mécanismes permettant d'exprimer le comportement d'un système. Nous nous sommes concentrés pour cela sur le comportement des objets multivue décrit par des machines à états qui nécessitent des adaptations des concepts de modélisation UML. Pour réaliser cet objectif nous avons introduit la notion de sonde d'événements, qui permet de spécifier des communications implicites entre les vues par observation d'événements. Ceci permet de découpler des spécifications qui sont a priori fortement interconnectées, de les concevoir séparément par points de vue, selon les préconisations de la méthode VUML, puis de les intégrer sans avoir à les modifier. Nous avons tout d'abord défini le concept de sonde d'événements, identifié les différents types de sondes avec les paramètres associés, puis défini un ensemble de concepts permettant d'enrichir et de manipuler les sondes. Nous avons ensuite proposé une représentation compatible avec VUML des concepts introduits sous forme d'un profil nommé VxUML (extension de VUML). En plus de la définition des éléments du profil (stéréotypes, valeurs marquées, classes de librairie prédéfinies), nous avons développé en OCL des règles de bonne formation (sémantique statique). Pour illustrer l'intérêt des concepts introduits, nous avons développé une étude de cas en proposant une modélisation par points de vue complète traitant à la fois les aspects structurel et comportemental. Pour valider concrètement notre approche, nous avons développé, selon une approche IDM, un générateur de code qui prend en entrée une spécification de système en VxUML. Ce générateur utilise les techniques de transformation de modèles liées à la génération de code, et notamment les transformations de modèles indépendants de plate-forme (PIM) vers des modèles spécifiques à une plate-forme (PSM), et des modèles PSM vers le code ; il a été développé dans un premier temps avec le langage cible Java. Sur le plan méthodologique, nous avons défini une démarche associée à VxUML, qui complète celle de VUML, en permettant d'utiliser d'une manière méthodique les mécanismes dédiés au traitement du comportement. Désormais, le processus de développement VxUML permet une modélisation par points de vue complète, traitant à la fois les aspects structurel et comportemental. Mots clés : Conception par points de vue, profil VUML, profil VxUML, sonde d'événements, machine à états multivue, composition du comportement

    Model checking sur des pipelines de stream processing

    Get PDF
    L’event stream processing (ESP) est le traitement d’un flux continu d’objets, appelé séquence d’événements, dans l’optique de l’analyser ou de le transformer. Le laboratoire d’informatique formelle de l’UQAC (LIF) développe depuis plusieurs années un moteur de stream processing open source appelé BeepBeep 3. Cet engin permet une utilisation facile du concept d’ESP. À BeepBeep 3, on y a intégré un système de vérification formelle. Avec seulement quelques lignes de code supplémentaires, il est maintenant possible de générer automatiquement une structure de Kripke d’une chaîne de processeurs donnée. Des applications intéressantes s’ajoutent donc à l’utilité déjà vaste de BeepBeep. Comparer des pipelines à l’aide de formules en logique temporelle linéaire (LTL) ou en logique du temps arborescent (CTL) et l’idée qu’une chaîne de processeurs monitore une structure de Kripke ne sont que quelques exemples. Dans ce mémoire, on expliquera tout le processus de réflexion et d’exécution qui a mené à l’automatisation de la construction d’une chaîne de processeur BeepBeep en un modèle de Kripke valide pour analyse dans le logiciel NuXMV

    Une approche par composants pour l'analyse visuelle interactive de résultats issus de simulations numériques

    Get PDF
    Component-based approaches are increasingly studied and used for the effective development of the applications in software engineering. They offer, on the one hand, safe architecture to developers, and on the other one, a separation of the various functional parts and particularly in the interactive scientific visualization applications. Modeling such applications enables the behavior description of each component and the global system’s actions. Moreover, the interactions between components are expressed through a communication schemes sometimes very complex with, for example, the possibility to lose messages to enhance performance. This thesis describes ComSA model (Component-based approach for Scientific Applications) that relies on a component-based approach dedicated to interactive and dynamic scientific visualization applications and its formalization in strict Colored FIFO Nets (sCFN). The main contributions of this thesis are, first, the definition of a set of tools to model the component’s behaviors and the various application communication policies. Second, providing some properties on the application to guarantee it starts properly. It is done by analyzing and detecting deadlocks. This ensures the liveness throughout the application execution. Finally, we present dynamic reconfiguration of visual analytics applications by adding or removing on the fly of a component without stopping the whole application. This reconfiguration minimizes the number of unavailable services.Les architectures par composants sont de plus en plus étudiées et utilisées pour le développement efficace des applications en génie logiciel. Elles offrent, d’un côté, une architecture claire aux développeurs, et de l’autre, une séparation des différentes parties fonctionnelles et en particulier dans les applications de visualisation scientifique interactives. La modélisation de ces applications doit permettre la description des comportements de chaque composant et les actions globales du système. De plus, les interactions entre composants s’expriment par des schémas de communication qui peuvent être très complexes avec, par exemple, la possibilité de perdre des messages pour gagner en performance. Cette thèse décrit le modèle ComSA (Component-based approach for Scientific Applications) qui est basé sur une approche par composants dédiée aux applications de visualisation scientifique interactive et dynamique formalisée par les réseaux FIFO colorés stricts (sCFN). Les principales contributions de cette thèse sont dans un premier temps, un ensemble d’outils pour modéliser les différents comportements des composants ainsi que les différentes politiques de communication au sein de l’application. Dans un second temps, la définition de propriétés garantissant un démarrage propre de l’application en analysant et détectant les blocages. Cela permet de garantir la vivacité tout au long de l’exécution de l’application. Finalement l’étude de la reconfiguration dynamique des applications d’analyse visuelle par ajout ou suppression à la volée d’un composant sans arrêter toute l’application. Cette reconfiguration permet de minimiser le nombre de services non disponibles

    Le recyclage comme moteur de la fabrique de l’espace social (et piéton) du sanctuaire féminin otaku d’Otome-Road à Ikebukuro, Tokyo

    Get PDF
    La culture populaire japonaise otaku tend à être étudiée à travers ses attributs visuels issus du manga, des séries d’animé, ou du jeu vidéo. Ce travail entreprend d’étendre les champs disciplinaires environnant la production des cultures de fans au Japon vers la question de la fabrique d’un espace quotidien de circulation d’images, médias et piétons. Aujourd’hui devenus partie intégrante du paysage nippon, les sanctuaires otaku (quartiers spécialisés) nous servent de base pour reconceptualiser les théories et méthodes d’approche des sous-cultures d’un point de vue piéton : nous analysons depuis les rues du sanctuaire d’Otome-Road à Ikebukuro, (Tokyo) un ensemble de pratiques, imaginaires et structures de l’espace social fondé sur le recyclage (réutilisation, ou réappropriation) des images. Les piétonnes nous apprennent que le moteur de la production culturelle otaku est aussi celui de la fabrication d’un nombre croissant de territoires où des groupes infra-politiques peuvent se faire entendre de l’industrie des loisirs et des autorités étatiques. À la fois symptôme de la conquête réelle de l’espace local, régional puis national japonais par la circulation otaku et opportunité intellectuelle de découvrir les enjeux spatiaux des cultures contemporaines, le cas otaku nous invite à envisager un cadre théorique et méthodologique qui rend ses territoires et sa mobilité aux mouvements socioculturels actuels. Nous explorerons la construction de la trivialité du quotidien otaku comme un ensemble de dialectiques négociant la visibilité de groupes minoritaires féminins utilisant divers registres de mobilité pour donner corps, vie et espace à leur agentivité sociale
    corecore