1,309 research outputs found

    Environnement de coopération de simulation pour la conception de systèmes cyber-physiques

    Get PDF
    La conception de systèmes cyber-physiques (CPS) est une activité complexe qui requiert l’utilisation de plusieurs méthodes et outils pendant le processus de développement. L’objectif du travail présenté est de fournir un moyen de simuler plusieurs types de modèles réalisés à plusieurs niveaux dans la phase de conception. Nous avons développé un environnement de co-simulation permettant la coopération de deux outils de simulation open source : Ptolemy II et HLA/CERTI. Ptolemy II permet la modélisation hiérarchique de systèmes hétérogènes tandis qu’HLA/CERTI permet des simulations distribuées interopérables (parfois en intégrant des éléments matériels). Dans le papier, nous détaillons les points communs et différences sémantiques de la gestion du temps. Trois nouveaux objets Ptolemy : un attribut HlaManager ainsi que deux acteurs, HlaPublisher et HlaSubscriber, ont été développés afin de réaliser l’interface entre les deux outils de simulation. Une étude de cas est détaillée à la fin du papier

    Intégration de la modélisation comportementale dans la conception par points de vue

    Get PDF
    View-based modeling is the main subject of this thesis. It is a variant of the object oriented modeling approach for the analysis and design of complex systems, focusing on the actors that use the system and decomposing the specification according to their needs. With this prospect, our team developed a UML profile named VUML (View based UML), which allows the elaboration of a unique and sharable model accessible according to the view of each of the system's actors. However the achieved work on the VUML profile does not tackle the behavior aspects of the modeling process. The VUML approach address the structural aspects related to the composition of views and to the sharing of data without dealing with the way these views will react, or how to be able to synchronize them in order to obtain the behavior of multiple-view objects (instances of a multi-view class). The achieved work in this thesis aims to fill this gap by providing new mechanism to the VUML profile that allows expressing the behavioral needs of a system. We will focus on describing the individual behavior of multi-view objects by state-machines that require adjustments of UML modeling concepts. To achieve this objective we introduced the concept of event probes, which allow to specify implicit communication between the view-objects via event observation. This allows decoupling the view specifications that are a priori strongly interconnected, and therefore allows them to be designed separately, in agreement with the VUML method recommendations, and then to be integrated without the need of making modifications. We first define the concept of event monitoring and identified the different types of probes and the appropriate parameters that characterize them. We also define a set of concepts that can extend and manipulate probes. Then we propose a UML-compatible representation of the introduced concepts in form of a profile named VxUML (extension of VUML). In addition to defining the profile elements (stereotypes, tagged value, predefined library classes), we have developed rules for proper formation of the static semantics using OCL to reduce ambiguity in the specification of such concepts. Afterwards, to demonstrate the usefulness of the concepts introduced, we developed a case study through which we sought to provide a full view-based model, addressing both structural and behavioral aspects. At the end, to concretely validate our approach in a model driven engineering setting, we developed a code generator that takes as input a specification developed in VxUML profile. This generator uses the techniques of model transformation related to the code generation, including transformation of platform independent models (PIM) to platform specific models (PSM), and transformation of PSMs to code; the current target language is Java. Finally, another contribution of this thesis is a process associated with VxUML. It is an approach that complements the approach associated with VUML (which deal only with structural aspects) to be able to use in methodical manner the new mechanisms dedicated to behavioral treatment. Now, the VxUML development process offers a complete view based modeling, that is, dealing with both structural and behavioral aspects. Keywords: View based modeling, VUML profile, VxUML profile, event observation, multi-view states machine, behavior composition.La modélisation par points de vue constitue la thématique générale de notre travail de thèse. C'est une approche de modélisation orientée objet, visant l'analyse et la conception des systèmes complexes avec une démarche centrée autour des acteurs interagissant avec le système. Notre équipe a ainsi développé un profil UML appelé VUML (View based UML), qui permet l'élaboration d'un modèle unique partageable à partir de vues associées aux points de vue des acteurs. Cependant, les travaux réalisés sur le profil VUML [Nassar, 05 ; Anwar, 09] ne couvrent pas les aspects comportementaux de la modélisation. En effet, – en proposant la notion de classe multivue – VUML traite les aspects structuraux liés à la composition des vues et au partage des données statiques sans prendre en compte la manière dont ces vues vont réagir, ni comment les synchroniser afin de représenter le comportement des objets multivue (instances d'une classe multivue). Les travaux effectués dans le cadre de cette thèse cherchent à combler ce manque en dotant le profil VUML de nouveaux mécanismes permettant d'exprimer le comportement d'un système. Nous nous sommes concentrés pour cela sur le comportement des objets multivue décrit par des machines à états qui nécessitent des adaptations des concepts de modélisation UML. Pour réaliser cet objectif nous avons introduit la notion de sonde d'événements, qui permet de spécifier des communications implicites entre les vues par observation d'événements. Ceci permet de découpler des spécifications qui sont a priori fortement interconnectées, de les concevoir séparément par points de vue, selon les préconisations de la méthode VUML, puis de les intégrer sans avoir à les modifier. Nous avons tout d'abord défini le concept de sonde d'événements, identifié les différents types de sondes avec les paramètres associés, puis défini un ensemble de concepts permettant d'enrichir et de manipuler les sondes. Nous avons ensuite proposé une représentation compatible avec VUML des concepts introduits sous forme d'un profil nommé VxUML (extension de VUML). En plus de la définition des éléments du profil (stéréotypes, valeurs marquées, classes de librairie prédéfinies), nous avons développé en OCL des règles de bonne formation (sémantique statique). Pour illustrer l'intérêt des concepts introduits, nous avons développé une étude de cas en proposant une modélisation par points de vue complète traitant à la fois les aspects structurel et comportemental. Pour valider concrètement notre approche, nous avons développé, selon une approche IDM, un générateur de code qui prend en entrée une spécification de système en VxUML. Ce générateur utilise les techniques de transformation de modèles liées à la génération de code, et notamment les transformations de modèles indépendants de plate-forme (PIM) vers des modèles spécifiques à une plate-forme (PSM), et des modèles PSM vers le code ; il a été développé dans un premier temps avec le langage cible Java. Sur le plan méthodologique, nous avons défini une démarche associée à VxUML, qui complète celle de VUML, en permettant d'utiliser d'une manière méthodique les mécanismes dédiés au traitement du comportement. Désormais, le processus de développement VxUML permet une modélisation par points de vue complète, traitant à la fois les aspects structurel et comportemental. Mots clés : Conception par points de vue, profil VUML, profil VxUML, sonde d'événements, machine à états multivue, composition du comportement

    Pilotage des productions d'objets complexes dans l'industrie de l'Espace : innovation intensive et sériation

    No full text
    International audienceCompanies arisen from the development of advanced technologies, in the aeronautics, the biomedical technologies or the computing, have to manage an extensive innovation and an optimal serial reproduction. The control of strategic processes, costs and deadlines, as well as an arsenal of standards and procedures, must face a high rhythm of innovation and technological challenges, with uncertainties and a severe compression of cycles and costs. The difficulties of piloting, coordination and the lack of robustness of the schedules, require to wonder about the strategic choices in organization, in instrumentation and in knowledges. Which approaches and which models seem relevant to organize and manage the conception and the production of such complex technical systems ? In association with a group of industrialists, in particular EADS, researches had been led a few years ago, under a round trip between empirical analysis and modeling. The research found an opportunity there to progress in the construction and the confrontation of new theoretical bases because the classic approaches had turned out fruitless. We tell the case of one of these companies specialized in the spatial activity (Cf 1.1). We expose the organizational and instrumental met problems (Cf 1.2 and 1.3). We present the models and the new concepts which clarified the reading of these problems and their emergence too, to finish by presenting the imagined and experimented solutions (cf 2.1 and 2.2). High regimes of innovation and of serial reproduction draw organizational forms with specialized networks and a centralized piloting. These regimes also demand a new design of the definition of objects. The theoretical headways and the accomplished industrial developments could benefit both the research in management and the very numerous companies confronted with the complexity of their systems, the piloting of a permanent innovation and at the same time a necessity of serial reproduction.Les entreprises nées du développement de technologies avancées dans l‟aéronautique, les technologies biomédicales ou l‟informatique, doivent gérer une innovation intensive et une sériation optimale. A la maîtrise des procédés stratégiques, des coûts et des délais ainsi qu‟à un arsenal de normes et de procédures s‟ajoutent un rythme élevé de l‟innovation produit et des défis technologiques permanents, marqués d‟incertitudes et soumis dès leur gestation à une compression sévère des cycles et des coûts. Les difficultés de pilotage, de coordination et le manque de robustesse des plannings exigent de s‟interroger sur les choix stratégiques en matière d‟organisation, d‟instrumentation et de savoirs sous-tendus. Quelles approches et quels modèles semblent pertinents pour organiser et gérer la conception et la production de tels systèmes techniques complexes ? En collaboration avec un groupe d‟industriels, notamment EADS, des recherches avaient été menées voici quelques années, sous la forme d‟un aller-retour entre analyse empirique et modélisation. La recherche y avait vu une opportunité de progresser dans la construction et la confrontation de bases théoriques nouvelles car les approches classiques s‟étaient avérées infructueuses. Nous relatons le cas d‟une de ces entreprises spécialisée dans l‟activité spatiale (Cf 1.1). Nous exposons les problématiques organisationnelles et instrumentales rencontrées (Cf 1.2 et 1.3). Nous présentons les modèles et les concepts nouveaux qui avaient permis de clarifier la lecture de ces problématiques et leur émergence, pour finir en présentant les solutions imaginées et expérimentées (Cf.2.1 et 2.2). Des régimes élevés d‟innovation et de reproduction en série dessinent des formes organisationnelles en réseaux spécialisés avec un pilotage centralisé. Ces régimes exigent aussi une nouvelle modélisation de la définition des objets. Les avancées théoriques et les développements industriels accomplis pourraient, par leurs généralités, profiter tant à la recherche en gestion qu‟aux très nombreuses entreprises confrontées à la complexité de leurs systèmes, au pilotage d‟une innovation permanente et à une nécessité de sériation

    Évaluation de l'apport des aspects, des sujets et des vues pour la composition et la réutilisation des modèles

    Get PDF
    National audienceThe reuse, the evolution or the fast adaptation of the code of an application are among the strongest concerns of companies. Model engineering tries to bring a solution putting the model in the center of the software development and by capturing the business know-how initially described in the code of the application. This approach has the advantage to make the description independant of software platforms. Our objective in this paper is to present three different approaches for the composition of models, to evaluate them using the criteria proposed by the AOSD-EUROPE network of excellence in order to extract relevant information. From this evaluation, this paper provides new proposals. The evaluation aims at showing the capacity of each approach to support the composition of both functional and extra-functional concerns

    Gestion de bout en bout de la qualité de contexte pour l'internet des objets : le cadriciel QoCIM

    Get PDF
    Cette thèse se situe dans le cadre du projet INCOME (INfrastructure de gestion de COntexte Multi-Échelle pour l'Internet des Objets) financé par l'ANR (Appel INFRA 2011). L'objectif de ce projet est de fournir un cadriciel pour le développement et le déploiement d'un gestionnaire de contexte. Les entités logicielles d'acquisition, de traitement, de dissémination et de présentation d'informations de contexte, qui constituent un gestionnaire de contexte, doivent être construites et déployées au-dessus d'infrastructures technologiques hétérogènes et interconnectées. Ainsi, les cibles incluent les réseaux de capteurs, les systèmes ambiants, les dispositifs mobiles ou encore les serveurs du cloud, et de façon plus globale l'Internet des Objets (IoT). Les travaux menés dans cette thèse concernent plus particulièrement la gestion " de bout en bout " de la Qualité de Contexte (QoC) au sein de cette nouvelle génération de gestionnaires de contexte à déployer sur l'IoT à grande et multiples échelles. La qualité de l'information de contexte relevant de critères tels que la précision, la fraîcheur, la complétude, la granularité... Par gestion de la QoC, nous faisons référence à l'ensemble des opérations qui, tout le long du cycle de vie d'une information de contexte, permettent de gérer sa qualification, mais également d'influer, en fonction de cette qualité, sur sa dissémination et sa livraison aux applications sensibles au contexte. Actuellement des solutions de gestion de la QoC existent mais restent ad hoc à des environnements ambiants particuliers ou des applications spécifiques. Elles s'avèrent inadéquates en termes d'ouverture, de généricité et de calculabilité pour des environnements fortement hétérogènes et dynamiques tels que l'IoT où il n'y a plus de couplages forts et figés entre producteurs ou consommateurs d'informations de contexte. QoCIM (QoC Information Model) constitue le cœur de notre contribution. Il s'agit d'un méta-modèle dédié qui permet, de façon unifiée et ouverte, de définir des critères de QoC simples et composites. Basées sur QoCIM, des opérations de gestion de la QoC ont été identifiées et spécifiées. Elles permettent d'associer des critères de QoC, sous forme de métadonnées, à l'information de contexte, de caractériser les métriques et les unités pour leur valuation, d'inférer des critères de QoC de plus haut niveau d'abstraction, ou encore d'exprimer des conditions de filtrage portant sur de tels critères et/ou leurs valeurs. Un outillage logiciel d'édition de modèles QoCIM et une API en Java sont proposés aux développeurs pour facilement intégrer la gestion de tout critère de QoC lors du développement d'entités d'acquisition, de traitement, de livraison et de propagation d'informations de contexte et des applications sensibles au contexte. L'utilisation de ce cadriciel a été expérimentée, à la fois en phases de conception et d'exécution, sur un scénario de pollution urbaine. Des évaluations de performances ont été également menées et ont montré que le surcoût apporté par la prise en considération des niveaux de QoC pour le routage des informations de contexte était acceptable. Enfin, une solution d'auto-(re)configuration des opérations de gestion de la QoC a été également conçue et prototypée.The objective of the ANR INCOME project is to provide a framework for the development and the deployment of a context manager. A context manager is composed of software entities, which acquire, process, disseminate or deliver context data. These software entities have to be built and deployed over interconnected heterogeneous ICT infrastructures, which include sensor networks, ambient systems, mobile devices, cloud servers and, more generally, the Internet of Things (IoT). Related to this project, the research work presented in this thesis concerns more specifically the end-to-end management of Quality of Context (QoC) within the new generation of context managers that have to be deployed at large and multiple scales over the IoT. Quality of context data refers to criteria like accuracy, freshness, completeness or granularity. As for QoC management, it deals with all the operations that allow, throughout the life cycle of context data, to manage their qualification, but also to impact, according to this quality, on its dissemination and delivery to context-aware applications. Current QoC management solutions are dedicated to particular ambient environments or to specific applications. They are limited in terms of openness, genericity and computationability, properties required by greatly heterogeneous and dynamic IoT-based environments, in which producers and consumers of context data are no more static and highly coupled. Our contribution relies on QoCIM (QoC Information Model), a meta-model dedicated to define, in a uniform and open way, any atomic or composite QoC criterion. Based on QoCIM, some QoC management operations have been identified and specified. These operations allow to associate criteria of QoC, in the form of metadata, with the information of context; to characterize the metrics and units for their valuation; to infer QoC criteria of a higher level of abstraction; or even to express filtering conditions for such criteria or their values. A software tool for editing QoCIM models and a Java API are provided to developers to easily implement the management of any QoC criterion for their software entities that acquire, process, deliver or propagate context data, or their context-sensititive application. The use of this framework was experimented, both at design time and at run time, on a scenario related to urban pollution. Benchmarking was also led and showed that the additional cost brought when considering QoC in context information routing was acceptable. Finally, a solution for self-(re)configuring QoC management operations was also designed and prototyped

    Un ensemble de ressources de référence pour l’étude du français : tlfi, frantext et le logiciel stella

    Get PDF
    Les recherches en traitement automatique des langues nécessitent de vastes ressources de référence : corpus textuels, dictionnaires informatiques, outils de traitement. Cette contribution présente les ressources linguistiques informatisées du laboratoire atilf (Analyse et Traitement Informatique de la Langue Française) accessibles sur la toile ainsi que leur diversité d’exploitation potentielle. Regroupant un ensemble de plus de 3600 textes de langue française réunis dans frantext et divers dictionnaires, lexiques et autres bases de données, ces ressources exploitent les fonctionnalités du logiciel stella, qui correspond à un véritable moteur de recherche dédié aux bases textuelles s’appuyant sur une nouvelle théorie des objets textuels.Progress in linguistic research, especially in the field of automatic treatment, depends on access to a vast array of linguistic resources such as texts, dictionaries and software. This paper presents the computerized linguistic resources of the atilf Research Laboratory that are available on the Web and discusses the range of their potential uses. Consisting of a set of more than 3600 documents in French in the frantext database, as well as various dictionaries, lexicons, and other databases, these resources are accessed using the functions of stella, dedicated search engine software for textual databases based on a new theory of textual objects

    Rôle d'une base de connaissance dans SemIoTics, un système autonome contrôlant un appartement connecté

    Get PDF
    National audienceL'Internet des Objets représente une réalité de plus en plus concrète au fur et à mesure que se déploient de larges réseaux d'objets connectés. Ceux-ci ouvrent de larges perspectives d'applications, mais rencontrent des difficultés en terme d'interopérabilité, de configuration ou de passage à l'échelle. Ces probléma-tiques peuvent être traitées par le recours aux principes du web de données liées, d'où l'émergence d'ontologies dédiées aux applications de l'IoT, comme IoT-O, une ontologie pour l'IoT.Par ailleurs, une description en-richie des systèmes permet d'envisager leur configuration autonome : on parle alors d'autonomic computing. Ce papier présente SemIoTics, un système autonome reposant sur des bases de connaissance pour la gestion d'un appartement connecté. Nous présentons tout d'abord une vision générique d'une architecture de réseaux d'objets connectés qui permet de guider une analyse des travaux à l'interface du web sémantique et de l'IoT. Nous décrivons ensuite les deux bases de connaissances spécialisant IoT-O sur lesquelles s'appuie SemIoTics, et leur relation avec le dispositif expérimental. Enfin, la structure de ce système autonome de domotique est présenté en détails, et mis en relation avec l'architecture identifiée dans l'état de l'art

    Contribution à la spécification et à la vérification des logiciels à base de composants : enrichissement du langage de données de Kmelia et vérication de contrats

    Get PDF
    With Model Driven Engineering models are the heart of software development. Thesemodels evolve through transformations. In this thesis our interest was the validationfor these model transformations by testing, and more precisely the test oracles. Wepropose two approaches to assist the tester to create these oracles. With the first ap-proach this assistance is passive; we provide the tester with a new oracle function.The test oracles created with this new oracle function control only part of the modelproduced by the transformation under test. We defined the notion of partial verdict,described the situations where having a partial verdict is beneficial for the tester andhow to test a transformation in this context. We developed a tool implementing thisproposal, and ran experiments with it. With the second approach, we provide a moreactive assistance about test oracles’ quality. We study the quality of a set of modeltransformation test oracles. We consider that the quality of a set of oracles is linkedto its ability to detect faults in the transformation under test. We show the limits ofmutation analysis which is used for this purpose, then we propose a new approach thatcorrects part of these drawbacks. We measure the coverage of the output meta-modelby the set of oracles we consider. Our approach does not depend on the language usedfor the transformation under test’s implementation. It also provides the tester withhints on how to improve her oracles. We defined a process to evaluate meta-modelcoverage and qualify test oracles. We developed a tool implementing our approach tovalidate it through experimentations.L'utilisation croissante des composants et des services logiciels dans les différents secteursd'activité (télécommunications, transports, énergie, finance, santé, etc.) exige desmoyens (modèles, méthodes, outils, etc.) rigoureux afin de maîtriser leur production etd'évaluer leur qualité. En particulier, il est crucial de pouvoir garantir leur bon fonctionnementen amont de leur déploiement lors du développement modulaire de systèmes logiciels.Kmelia est un modèle à composants multi-services développé dans le but de construiredes composants logiciels et des assemblages prouvés corrects. Trois objectifs principauxsont visés dans cette thèse. Le premier consiste à enrichir le pouvoir d'expression du modèle Kmelia avec un langage de données afin de satisfaire le double besoin de spécificationet de vérification. Le deuxième vise l'élaboration d'un cadre de développement fondé sur lanotion de contrats multi-niveaux. L'intérêt de tels contrats est de maîtriser la constructionprogressive des systèmes à base de composants et d'automatiser le processus de leur véri-fication. Nous nous focalisons dans cette thèse sur la vérification des contrats fonctionnelsen utilisant la méthode B. Le troisième objectif est l'instrumentation de notre approchedans la plate-forme COSTO/Kmelia. Nous avons implanté un prototype permettant deconnecter COSTO aux différents outils associés à la méthode B. Ce prototype permet deconstruire les machines B à partir des spécifications Kmelia en fonction des propriétés à vé-rifier. Nous montrons que la preuve des spécifications B générées garantit la cohérence desspécifications Kmelia de départ. Les illustrations basées sur l'exemple CoCoME confortentnos propositions

    ASAP approche orientée : services pour un support agile et flexible des processus de conception de produit dans les systèmes PLM

    Get PDF
    To cope with market dynamic and shortened time to market, industrial companies need toimplement an effective management of their design processes (DPs) and product information.Unfortunately, Product Lifecycle Management (PLM) systems which are dedicated to support designactivities are not efficient as it might be expected. Indeed, DPs are changing, emergent and nondeterministic, due to the business environment under which they are carried out. The aim of this workis to propose an alternative approach for flexible process support within PLM systems to facilitate thecoupling with the environment reality. The purpose of a support system is to accelerate the process byautomating the notification and dispatching of information and activities between actors. It also allowsto keep track of transactions and decisions made and to increase processes standardization. Our goal isto propose a solution which allows process change at run-time without having to redefine and restartthe whole of process activities. To achieve this, we proposed an approach based on service-orientedarchitectures (SOA). These architectures allow defining modular applications, using loosly coopledservices. They are mainly exploited for software systems and Web development. Our goal is to declinesuch architectures at the business level of a company in order to perform flexible DPs deploymentbased on services reuse and composition. We propose an identification approach for business levelservices (product design services) and functional PLM services. These services are organized in twocatalogs of business and functional services. Our approach is based on Model Driven Approach withthree levels which propose alignment mechanisms between business, functional and technical levels.These alignment mechanisms between levels allow integrating change and automating design processdeployment.La dynamique de l’offre et de la demande des produits manufacturiers ainsi que leraccourcissement de leurs cycles de vie obligent les entreprises industrielles à se doter de processus dedéveloppement produit dynamiques et agiles. Nos travaux se positionnement sur le supportinformatisé de ces processus de développement qui sont actuellement gérés par les systèmes PLM.L’objectif d’un support informatisé est d’accélérer le processus en automatisant la notification et ladiffusion des informations. Il permet également de garder trace des opérations et décisions effectuéeset d’accroître la standardisation des processus. Face à la rigidité des solutions actuellement proposéespour gérer les processus vis-à-vis des modifications survenant dans le processus, notre objectif est deproposer une approche permettant de modifier un processus en cours d’exécution sans devoir leredéfinir et le relancer dans son ensemble. Pour y parvenir, nous avons proposé, une approche quidécline une orientation services inspirée des architectures orientées services (SOA). Ces architecturespermettent de définir des applications modulaires, en utilisant des services faiblement couplés. Notreobjectif est de décliner une telle architecture exploitée essentiellement pour les systèmes logiciels et leWeb, au niveau métier de l’entreprise afin de modéliser et d’exécuter de manière flexible desprocessus de conception de produits par composition de services réutilisables. Nous proposons unedémarche d'identification des services du domaine métier des processus de conception produit et dudomaine fonctionnel du PLM. Ces services sont organisés dans deux catalogues de services métiers etfonctionnels. Notre approche s'inscrit dans le cadre de l'Ingénierie Dirigée par les Modèles (IDM) avecune architecture de réference à trois niveaux et des mécanismes d’alignement entre les niveaux métier,fonctionnel et logiciel. Ces mécanismes d'alignement entre les niveaux permettent d’intégrerl’évolution et d'automatiser le déploiement d’un processus de conception du niveau métier auxniveaux fonctionnel et logiciel
    • …
    corecore