349 research outputs found

    Analyse des mécanismes de découverte de services avec prise en charge du contexte et de l'intention

    No full text
    National audienceAvec la démocratisation des dispositifs et des réseaux mobiles, les systèmes d'information deviennent pervasifs. Les utilisateurs de ces systèmes doivent désormais évoluer dans de véritables espaces de services, dans lesquels plusieurs services sont offerts. Afin d'améliorer la transparence des systèmes d'information pervasifs, nous proposons une nouvelle approche pour ces systèmes, à la fois sensible au contexte et intentionnelle. Dans cette approche, les services offerts par ces systèmes sont proposés afin de satisfaire à une intention, laquelle correspond à l'expression d'un but utilisateur, dans un contexte donné. Pour valider cette approche, nous développons actuellement une plate-forme de découverte de services basée sur une extension de OWL-S qui intègre ces notions. Grâce à des résultats expérimentaux, nous analysons l'impact de l'usage de ces notions de contexte et d'intention dans la sélection de services et démontrons l'intérêt de notre approche dans la découverte des services

    Alignement d'ontologies : exploitation des ontologies liées sur le web de données

    Get PDF
    International audienceNous proposons dans cet article une méthode d’alignement d’une ontologie source avec des ontologies cibles déjà publiées et liées sur le web de données. Nous présentons ensuite un retour d’expérience sur l’alignement d’une ontologie dans le domaine des sciences du vivant et de l’environnement avec AGROVOC et NALT

    Architecture distribuée interopérable pour la gestion des projets multi-sites : application à la planification des activités de production

    Get PDF
    Aujourd’hui, la production est souvent multi-site car les entreprises se recentrent sur leurs cœurs de métiers. Dans ce contexte, la gestion des projets est une tâche difficile car il faut prendre en compte la distribution de la décision et l’hétérogénéité qui peut exister entre les différentes applications de production des partenaires. Les Systèmes Multi-Agents, et notamment le modèle SCEP (Superviseur, Client, Environnement, Producteur), apportent une solution satisfaisante au problème de la distribution de la décision, en instaurant une coopération entre des agents responsables de la gestion des projets client et des agents représentant les sites de production distants. Néanmoins, ce modèle présente des limites à cause de sa faible capacité à communiquer et à coopérer avec des modèles et des systèmes de gestion hétérogènes ainsi qu’à sa difficulté à localiser les nouveaux partenaires. Dans ce mémoire, nous proposons une architecture distribuée et interopérable SCEP-SOA intégrant les concepts du modèle SCEP et ceux du modèle SOA (Service Oriented Architecture) qui offre des mécanismes de mise en relation des partenaires et permet des communications entre des systèmes et des applications hétérogènes. Pour garantir la bonne compréhension des informations échangées entre les partenaires, l’architecture SCEP-SOA met en œuvre une stratégie d’interopérabilité sémantique basée sur l’intégration des ontologies. Cette stratégie s’articule autour d’une ontologie globale et commune utilisée pour l’échange des informations, et des mécanismes de correspondances entre cette ontologie globale et les ontologies locales des partenaires. Cette architecture est illustrée sur un cas d’étude où l’on se focalise sur l’interopérabilité entre des applications dédiées à la planification des projets de fabrication multi-sites. ABSTRACT : Today, the production is often multi-site because companies focus on their core competencies. In this context, projects’ management is a difficult task because it must take into account the distribution of the decision and the heterogeneity which can exist between the various production applications of the partners. The Multi-agents systems, in particular the SCEP model (Supervisor, Customer, Environment, Producer), offer a satisfactory solution for the decision distribution problem, by establishing a cooperation between agents responsible of the management of the customer projects and agents representing the remote production sites. Nevertheless, this model presents limits because of its weak ability to communicate and to cooperate with heterogeneous models and management systems, as well as in its difficulty to localize new partners. In this dissertation, we propose a distributed and interoperable architecture, SCEP-SOA, which integrates concepts of the SCEP model and SOA (Service Oriented Architecture) which offers mechanisms for putting in relation various partners and allows communication between heterogeneous systems and applications. To insure the good understanding of the information exchanged between the partners, the SCEP-SOA architecture implements a strategy of semantic interoperability based on the integration of ontologies. This strategy is based on the use of a shared global ontology for information exchange, and on mechanisms of mappings between the global ontology and the partners’ local ontologies. This architecture is illustrated by a study case in which we focus on the interoperability between applications dedicated to the planning of manufacturing multi-sites project

    Intégration holistique et entreposage automatique des données ouvertes

    Get PDF
    Statistical Open Data present useful information to feed up a decision-making system. Their integration and storage within these systems is achieved through ETL processes. It is necessary to automate these processes in order to facilitate their accessibility to non-experts. These processes have also need to face out the problems of lack of schemes and structural and sematic heterogeneity, which characterize the Open Data. To meet these issues, we propose a new ETL approach based on graphs. For the extraction, we propose automatic activities performing detection and annotations based on a model of a table. For the transformation, we propose a linear program fulfilling holistic integration of several graphs. This model supplies an optimal and a unique solution. For the loading, we propose a progressive process for the definition of the multidimensional schema and the augmentation of the integrated graph. Finally, we present a prototype and the experimental evaluations.Les statistiques présentes dans les Open Data ou données ouvertes constituent des informations utiles pour alimenter un système décisionnel. Leur intégration et leur entreposage au sein du système décisionnel se fait à travers des processus ETL. Il faut automatiser ces processus afin de faciliter leur accessibilité à des non-experts. Ces processus doivent pallier aux problèmes de manque de schémas, d'hétérogénéité structurelle et sémantique qui caractérisent les données ouvertes. Afin de répondre à ces problématiques, nous proposons une nouvelle démarche ETL basée sur les graphes. Pour l'extraction du graphe d'un tableau, nous proposons des activités de détection et d'annotation automatiques. Pour la transformation, nous proposons un programme linéaire pour résoudre le problème d'appariement holistique de données structurelles provenant de plusieurs graphes. Ce modèle fournit une solution optimale et unique. Pour le chargement, nous proposons un processus progressif pour la définition du schéma multidimensionnel et l'augmentation du graphe intégré. Enfin, nous présentons un prototype et les résultats d'expérimentations

    : Retours et attentes d'expérimentations en Learning Analytics

    Get PDF
    International audienceIn this paper, we aim to explore ways of transformations of the new techno-culture that will become essential to appropriate two emerging technologies closely related: Big-datas and Datas Analytics. We discuss as well the history of big-datas and statistical analysis but also their digital pre-warning. In terms of multivariate statistical analysis, we discuss the epistemological issues but also ethical Copernican reversal caused by this analysis (discussed Benzécri / Bourdieu). The questions to being techno-digital, closely related with human intelligence, it also upset by its implementation collaborative networks, are quickly raised (Heidegger, Simondon, Derrida and the current bibliography). We conclude by stating the close involvement of our ITEN-UNESCO Chair for ISO standardization of ICT and Learning Analytics standardization project that just opened. We also present our project Muren HD (digital humanities involving crowdsourcing synergy for education, research and heritage in a culturally Euro-Mediterranean context); a project that is part of education-research-project IDEFI Créatic.Dans ce papier nous visons à explorer des pistes de transformations de la nouvelle technoculture qui nous deviendra indispensable pour nous approprier deux technologies émergentes étroitement associées : les Big-datas et les Datas Analytics. Nous évoquons notamment l'histoire des big-datas et de l'analyse statistique, mais aussi de leurs avant-coureurs pré-numériques. Pour ce qui est de l'analyse statistique multidimensionnelle nous discutons les questions épistémologiques, mais aussi éthiques provoquées par ce retournement copernicien de l'analyse (discussion Benzécri/Bourdieu). Les questions de l'être techno-numérique et de son rapport d'année en année plus étroit avec l'intelligence humaine, elle aussi bouleversée par sa mise en réseaux collaboratifs, sont rapidement évoquées (Heidegger, Simondon, Derrida et la bibliographie actuelle). Nous concluons en faisant état de l'étroite participation de notre Chaire ITEN-Unesco à la normalisation ISO des TICE et du chantier de normalisation des Learning Analytics qui vient de s'ouvrir. Nous présentons aussi notre projet HD Muren (Humanités digitales mettant en synergie participative éducation, recherche et patrimoines dans un contexte culturellement euro-méditerranéen) ; un projet qui s'inscrit dans le cadre à projet d'enseignement-recherche Idéfi-Créatic. Abstract: In this paper, we aim to explore ways of transformations of the new techno-culture that will become essential to appropriate two emerging technologies closely related: Big-datas and Datas Analytics. We discuss as well the history of big-datas and statistical analysis but also their digital pre-warning. In terms of multivariate statistical analysis, we discuss the epistemological issues but also ethical Copernican reversal caused by this analysis (discussed Benzécri / Bourdieu). The questions to being techno-digital, closely related with human intelligence, it also upset by its implementation collaborative networks, are quickly raised (Heidegger, Simondon, Derrida and the current bibliography). We conclude by stating the close involvement of our ITEN-UNESCO Chair for ISO standardization of ICT and Learning Analytics standardization project that just opened. We also present our project Muren HD (digital humanities involving crowdsourcing synergy for education, research and heritage in a culturally Euro-Mediterranean context); a project that is part of education-research-project IDEFI Créatic

    Indigo : une approche multi-stratégique et adaptative pour un alignement sémantique intégrant le contexte des données à apparier

    Full text link
    Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

    Méthode de découverte de sources de données tenant compte de la sémantique en environnement de grille de données

    Get PDF
    Les applications grilles de données de nos jours partagent un nombre gigantesque de sources de données en un environnement instable où une source de données peut à tout moment joindre ou quitter le système. Ces sources de données sont hétérogènes, autonomes et distribuées à grande échelle. Dans cet environnement, la découverte efficace des sources de données pertinentes pour l'exécution de requêtes est un défi. Les premiers travaux sur la découverte de sources de données se sont basés sur une recherche par mots clés. Ces solutions ne sont pas satisfaisantes puisqu'elles ne tiennent pas compte des problèmes de l'hétérogénéité sémantique des sources de données. Ainsi, d'autres solutions proposent un schéma global ou une ontologie globale. Cependant, la conception d'un tel schéma ou d'une telle ontologie est une tâche complexe à cause du nombre de sources de données. D'autres solutions optent pour l'usage de correspondances entre les schémas des sources de données ou en s'appuyant sur des ontologies de domaine et en établissant des relations de 'mapping' entre ces dernières. Toutes ces solutions imposent une topologie fixe soit pour les correspondances soit pour les relations de 'mapping'. Cependant, la définition de relations de 'mapping' entre ontologies de domaine est une tâche ardue et imposer une topologie fixe est un inconvénient majeur. Dans cette perspective, nous proposons dans cette thèse une méthode de découverte de sources de données prenant en compte les problèmes liés à l'hétérogénéité sémantique en environnement instable et à grande échelle. Pour cela, nous associons une Organisation Virtuelle (OV) et une ontologie de domaine à chaque domaine et nous nous basons sur les relations de 'mappings' existantes entre ces ontologies. Nous n'imposons aucune hypothèse sur la topologie des relations de 'mapping' mis à part que le graphe qu'elles forment soit connexe. Nous définissons un système d'adressage permettant un accès permanent de n'importe quelle OV vers une autre malgré la dynamicité des pairs. Nous présentons également une méthode de maintenance dite 'paresseuse' afin de limiter le nombre de messages nécessaires à la maintenance du système d'adressage lors de la connexion ou de la déconnexion de pairs. Pour étudier la faisabilité ainsi que la viabilité de nos propositions, nous effectuons une évaluation des performances.Nowadays, data grid applications look to share a huge number of data sources in an unstable environment where a data source may join or leave the system at any time. These data sources are highly heterogeneous because they are independently developed and managed and geographically scattered. In this environment, efficient discovery of relevant data sources for query execution is a complex problem due to the source heterogeneity, large scale environment and system instability. First works on data source discovery are based on a keyword search. These initial solutions are not sufficient because they do not take into account problem of semantic heterogeneity of data sources. Thus, the community has proposed other solutions to consider semantic aspects. A first solution consists in using a global schema or global ontology. However, the conception of such scheme or such ontology is a complex task due to the number of data sources. Other solutions have been proposed providing mappings between data source schemas or based on domain ontologies and establishing mapping relations between them. All these solutions impose a fixed topology for connections as well as mapping relationships. However, the definition of mapping relations between domain ontologies is a difficult task and imposing a fixed topology is a major inconvenience. In this perspective, we propose in this thesis a method for discovering data sources taking into account semantic heterogeneity problems in unstable and large scale environment. For that purpose, we associate a Virtual Organisation (VO) and a domain ontology to each domain and we rely on relationship mappings between existing ontologies. We do not impose any hypothesis on the relationship mapping topology, except that they form connected graph. We define an addressing system for permanent access from any OVi to another OVj despite peers' dynamicity (with i inégalité j). We also present a method of maintenance called 'lazy' to limit the number of messages required to maintain the addressing system during the connection or disconnection of peers. To study the feasibility as well as the viability of our proposals, we make a performance evaluation
    • …
    corecore