67 research outputs found

    Espace de Conception d'un système d'aide à la maintenance basé sur la réalité augmentée.

    No full text
    International audienceL'un des principaux reproches que l'on fait à l'informatique traditionnelle est que le monde numérique de l'ordinateur est trop déconnecté du monde réel dans lequel les utilisateurs évoluent. Parvenir à rompre la frontière entre l'ordinateur et le monde réel dans le but d'accroître les capacités de l'utilisateur à percevoir les informations, à exécuter des tâches, ou encore à communiquer, le tout sans coupure avec son environnement habituel est l'un des enjeux de tout système utilisant le concept de la réalité augmentée (RA). Ce nouveau paradigme a p r i s une place importante dans divers domaines notamment dans le domaine de la maintenance. En effet, il permet tout en optimisant les coûts de maintenance, de fournir aux techniciens travaillant sur des équipements complexes des informations supplémentaires dont ils ont besoin sur leur lieu de travail. Dans cet article, nous proposons notre démarche de conception d'un système d'aide à la maintenance, centré sur l'analyse de l'interaction entre l'utilisateur, le système et le monde réel. Cet espace repose sur la notation UML. C'est un langage de modélisation visuel d'usage général utilisé pour spécifier, visualiser, construire et documenter les constituants d'un système logiciel. Son objectif est de faciliter la compréhension, l'analyse, la conception et la maintenance des systèmes. L'utilisation d'UML constitue la base de notre démarche de conception ergonomique et logicielle de systèmes de RA. Cette démarche se fonde en outre sur l'étude de propriétés ergonomiques au sein de la description UML d'un système et sur l'adaptation du modèle d'architecture PAC-Amodeus aux systèmes de RA

    Gestion de contexte dans un habitat intelligent à base d’ontologie : modélisation, implantation et validation

    Get PDF
    Le laboratoire DOMUS développe des applications sensibles au contexte dans une perspective d’intelligence ambiante. L’architecture utilisée présentement pour gérer le contexte a atteint ses limites en termes de capacité d’évoluer, d’intégration de nouvelles sources de données et de nouveaux capteurs et actionneurs, de capacité de partage entre les applications et de capacité de raisonnement. Ce projet de recherche a pour objectif de développer un nouveau modèle, un gestionnaire de contexte et de proposer une architecture pour les applications d’assistance installées dans un habitat intelligent. Le modèle doit répondre aux exigences suivantes : commun, abstrait, évolutif, décentralisé, performant et une accessibilité uniforme. Le gestionnaire du contexte doit permettre de gérer les événements et offrir des capacités de raisonnement sur les données et le contexte. La nouvelle architecture doit simplifier le développement d’applications d’assistance et la gestion du contexte. Les applications doivent pouvoir se mettre à jour si le modèle de données évolue dans le temps sans nécessiter de modification dans le code source. Le nouveau modèle de données repose sur une ontologie définie avec le langage OWL 2 DL. L’architecture pour les applications d’assistance utilise le cadre d’applications Apache Jena pour la gestion des requêtes SPARQL et un dépôt RDF pour le stockage des données. Une bibliothèque Java a été développée pour gérer la correspondance entre le modèle de données et le modèle Java. Le serveur d’événements est basé sur le projet OpenIoT et utilise un dépôt RDF. Il fournit une API pour la gestion des capteurs / événements et des actionneurs / actions. Les choix d’implémentation et l’utilisation d’une ontologie comme modèle de données et des technologies du Web sémantique (OWL, SPARQL et dépôt RDF) pour les applications d’assistance dans un habitat intelligent ont été validés par des tests intensifs et l’adaptation d’applications déjà existantes au laboratoire. L’utilisation d’une ontologie a pour avantage une intégration des déductions et du raisonnement directement dans le modèle de données et non au niveau du code des applications

    Méta modélisation et systèmes d'informations stratégiques

    Get PDF
    International audienceLes sources documentaires sous forme d'informations primaires, d'informations secondaires, d'informations tertiaires et d'informations à valeur ajoutée sont désormais disponibles par les nouvelles technologies d'information. Pour caractériser correctement les informations issues de base de données et permettre de produire de la connaissance, une première étape, communément admise, est de caractériser les données par des métas données c'est-à-dire des données sur les données. Une vision intéressante dans l'approche du décisionnel consiste à mettre l'acteur du système d'informations (SI) au centre du problème. La méta modélisation permet de décrire les objectifs de l'utilisateur, ses différentes activités et ses besoins dans la modélisation d'un système – d'informations stratégiques (S-IS). Les métas connaissances pour la représentation des connaissances du domaine d'application relèvent de la méta base chargée de contenir les structures des bases métiers. Ces bases métiers sont utilisées pour l'exploration des contenus des bases et pour des analyses décisionnelles. Les connaissances ou les informations contenues dans la méta base portent sur les attributs nécessaires pour les explorations et les analyses multidimensionnelles. Dans cet article nous explicitons les trois niveaux se modélisation d'un SIS et des acteurs impliqués dans le SIS

    SIG ChAOS : Représentation (La) de l'environnement sonore urbain à l'aide d'un système d'information géographique, Tome 1 et 2

    Get PDF
    Cette recherche a pour but de développer la représentation qualitative des phénomènes sonores urbains dans le sens d'une exploitation opérationnelle, en explorant les possibilités d'un Système d'Information Géographique (SIG)

    Modélisation intégratrice du traitement BigData

    Get PDF
    Nowadays, multiple actors of Internet technology are producing very large amounts of data. Sensors, social media or e-commerce, all generate real-time extending information based on the 3 Vs of Gartner: Volume, Velocity and Variety. In order to efficiently exploit this data, it is important to keep track of the dynamic aspect of their chronological evolution by means of two main approaches: the polymorphism, a dynamic model able to support type changes every second with a successful processing and second, the support of data volatility by means of an intelligent model taking in consideration key-data, salient and valuable at a specific moment without processing all volumes of history and up to date data.The primary goal of this study is to establish, based on these approaches, an integrative vision of data life cycle set on 3 steps, (1) data synthesis by selecting key-values of micro-data acquired by different data source operators, (2) data fusion by sorting and duplicating the selected key-values based on a de-normalization aspect in order to get a faster processing of data and (3) the data transformation into a specific format of map of maps of maps, via Hadoop in the standard MapReduce process, in order to define the related graph in applicative layer.In addition, this study is supported by a software prototype using the already described modeling tools, as a toolbox compared to an automatic programming software and allowing to create a customized processing chain of BigDataDans le monde d’aujourd’hui de multiples acteurs de la technologie numérique produisent des quantités infinies de données. Capteurs, réseaux sociaux ou e-commerce, ils génèrent tous de l’information qui s’incrémente en temps-réel selon les 3 V de Gartner : en Volume, en Vitesse et en Variabilité. Afin d’exploiter efficacement et durablement ces données, il est important de respecter la dynamicité de leur évolution chronologique au moyen de deux approches : le polymorphisme d’une part, au moyen d’un modèle dynamique capable de supporter le changement de type à chaque instant sans failles de traitement ; d’autre part le support de la volatilité par un modèle intelligent prenant en compte des données clé seulement interprétables à un instant « t », au lieu de traiter toute la volumétrie des données actuelle et historique.L’objectif premier de cette étude est de pouvoir établir au moyen de ces approches une vision intégratrice du cycle de vie des données qui s’établit selon 3 étapes, (1) la synthèse des données via la sélection des valeurs-clés des micro-données acquises par les différents opérateurs au niveau de la source, (2) la fusion en faisant le tri des valeurs-clés sélectionnées et les dupliquant suivant un aspect de dé-normalisation afin d’obtenir un traitement plus rapide des données et (3) la transformation en un format particulier de carte de cartes de cartes, via Hadoop dans le processus classique de MapReduce afin d’obtenir un graphe défini dans la couche applicative.Cette réflexion est en outre soutenue par un prototype logiciel mettant en oeuvre les opérateurs de modélisation sus-décrits et aboutissant à une boîte à outils de modélisation comparable à un AGL et, permettant une mise en place assistée d'un ou plusieurs traitements sur BigDat

    Ubiquité et confidentialité des données

    Get PDF
    Ubiquité et confidentialité des donnée

    Towards a desing method for 3D collaborative GIS

    Full text link
    Our thesis work focuses on collaborative 3D GIS and considers two main aspects governing their implementation: a conceptual framework for an approach to design these systems and a technical framework dealing with the main issues of integration of multiple data sources from different partners in a 3D collaborative database

    Aide à la Facilitation pour une prise de Décision Collective : Proposition d'un Modèle et d'un Outil

    Get PDF
    Decision Support Systems (DSS) were designed to resolve ill or non-structured decision problems. Problems where priorities, judgements, intuitions and experience of the decision-maker are essential, where the sequence of operations such as searching for a solution, formalization and structuring of problem is not beforehand known, when criteria for the decision making are numerous, in conflict or hard dependent on the perception of the user and where resolution must be acquired at restricted time. However, traditional DSS have been closed systems and are limited to the data and models contained within the system. In general, the type of support provided is relatively passive because decision makers are expected to scan internal and external data, and find discrepancies and deviations from expectations invoking ad hoc queries and reports that run on operational databases. In the other hand, Furthermore, many mission-critical, decision making situations happen in dynamic, rapidly changing, and often unpredictable distributed environments and require synchronous cooperative session. Unlike other decision making tools, decision support systems (DSS) designed for such situations are challenged by the need to access this decentralised information at time, from anywhere, under tight time constraints. In this thesis we consider, the paradigm of distributed decision-support systems where several decision-makers must reach a common decision. As a solution we propose an integrated framework based on a distributed architecture based on two cooperation modes: (1) Man-machine cooperation (2) Mediated man-man cooperation. According to the former cooperation mode, each decision-maker uses a specific cooperative intelligent decision support system allowing him to solve problem and to generate alternative solutions. The support system is viewed as a set of computer-based tools integrating expert knowledge and using collaboration technologies that help decision-makers and provide them with interactive capabilities to enhance their understanding and information base about options through use of models and data processing. By endowing the machine of additional capacities to intelligently guide the decision maker in its problem solving process, the system plays a collaborator's role with the decision-maker. This implies a human decision-maker and an automated system sharing dynamically the tasks and jointly working towards a decision. We assume that putting the human operator effectively in the loop of such decision support system represents the major guarantee of mastering efficiently the inherent complexity of the problems. Whilst considering the latter mode, The Group Decision Support (GDSS) tools allow the group of decision makers and the facilitator to make collective decision. This kind of cooperation uses a machine as an intermediate communication medium. As many group facilitation tasks can be automated, at least partially to increase the bandwidth of group communication and the ability of the facilitator to monitor and control the meeting process, an automated process to aid even the most inexperienced facilitator. The support to facilitators is considered by incorporating a model of the decision making process. The selected model provides a detailed view of decision making process. Having a model of the decision making process built into the system should enable intelligent decisional guidance. It enables the facilitator to appropriately choose and use the framework's tools and techniques in the group decision-making processes, to monitor group's behaviour, to know when to employ particular tools and techniques to move the group towards congruence. and to provide cues and customized explanations accordingly. We illustrate the applicability and relevance of this framework through a case study related to the management system of the boiler combustion which is one of the most critical systems for the good functioning of an oil plant. It has a high impact on the methods of thinking and apprehension of various problems related to maintenance. It is a multi-participant process with high level interactivity.Nous nous plaçons dans le contexte de situations décisionnelles critiques où les activités de prise de décision collective sont généralement caractérisées par des sessions de coopération synchrones au sein d'environnements distribués dynamiques, évolutifs et souvent imprévisibles. Au cours de ces sessions, les participants agissent simultanément et depuis des points d'accès distribués sur des objets partagés en suivant des règles de coordination pouvant être implicites ou explicites et en utilisant un ensemble d'outils qui leur permettent de progresser de façon coordonnée. Chacun des participants prend quelques décisions partielles, celles-ci servant de base aux suivantes. La prise de décision nécessite alors une synergie d'efforts de plusieurs membres afin que chacun d'eux mette à contribution son savoir-faire. Les membres ayant différents intérêts, compétences et expériences ne sont plus situés dans la même pièce mais utilisent des informations venant d'autres acteurs via des réseaux de type Internet ou intranet. D'ailleurs, c'est grâce à cette synergie que les membres peuvent atteindre des résultats supérieurs à ceux que qu'ils auraient pu réaliser individuellement. Ainsi l'outil pour décider devient l'outil pour décider ensemble. La contribution principale de cette thèse dans le domaine d'aide à la facilitation de la prise de décision collaborative se trouve dans la conception et la mise en œuvre d'un modèle et d'un système dédiée à la facilitation de la prise de décision de groupe synchrone distribuée. Cette structure collective entre agents humains permet d'une part d'additionner et de mutualiser les savoirs et les capacités créatrices, et d'autre part de limiter l'incertitude inhérente au processus de prise de décision par l'échange et la comparaison des points de vue. L'idée directrice de ce modèle est de renforcer la communication ainsi que la coopération entre les différents acteurs impliqués dans la prise de décision collective. Il s'agit d'une phase de production et de résolution créative de problème individuelle précédant la présentation des contributions au collectif. Cette dynamique d'éclatement puis de regroupement implique des mécanismes de coopération et de communication entre le groupe et l'individu
    • …
    corecore