244 research outputs found

    ScaleSem (model checking et web sémantique)

    Get PDF
    Le développement croissant des réseaux et en particulier l'Internet a considérablement développé l'écart entre les systèmes d'information hétérogènes. En faisant une analyse sur les études de l'interopérabilité des systèmes d'information hétérogènes, nous découvrons que tous les travaux dans ce domaine tendent à la résolution des problèmes de l'hétérogénéité sémantique. Le W3C (World Wide Web Consortium) propose des normes pour représenter la sémantique par l'ontologie. L'ontologie est en train de devenir un support incontournable pour l'interopérabilité des systèmes d'information et en particulier dans la sémantique. La structure de l'ontologie est une combinaison de concepts, propriétés et relations. Cette combinaison est aussi appelée un graphe sémantique. Plusieurs langages ont été développés dans le cadre du Web sémantique et la plupart de ces langages utilisent la syntaxe XML (eXtensible Meta Language). Les langages OWL (Ontology Web Language) et RDF (Resource Description Framework) sont les langages les plus importants du web sémantique, ils sont basés sur XML.Le RDF est la première norme du W3C pour l'enrichissement des ressources sur le Web avec des descriptions détaillées et il augmente la facilité de traitement automatique des ressources Web. Les descriptions peuvent être des caractéristiques des ressources, telles que l'auteur ou le contenu d'un site web. Ces descriptions sont des métadonnées. Enrichir le Web avec des métadonnées permet le développement de ce qu'on appelle le Web Sémantique. Le RDF est aussi utilisé pour représenter les graphes sémantiques correspondant à une modélisation des connaissances spécifiques. Les fichiers RDF sont généralement stockés dans une base de données relationnelle et manipulés en utilisant le langage SQL ou les langages dérivés comme SPARQL. Malheureusement, cette solution, bien adaptée pour les petits graphes RDF n'est pas bien adaptée pour les grands graphes RDF. Ces graphes évoluent rapidement et leur adaptation au changement peut faire apparaître des incohérences. Conduire l application des changements tout en maintenant la cohérence des graphes sémantiques est une tâche cruciale et coûteuse en termes de temps et de complexité. Un processus automatisé est donc essentiel. Pour ces graphes RDF de grande taille, nous suggérons une nouvelle façon en utilisant la vérification formelle Le Model checking .Le Model checking est une technique de vérification qui explore tous les états possibles du système. De cette manière, on peut montrer qu un modèle d un système donné satisfait une propriété donnée. Cette thèse apporte une nouvelle méthode de vérification et d interrogation de graphes sémantiques. Nous proposons une approche nommé ScaleSem qui consiste à transformer les graphes sémantiques en graphes compréhensibles par le model checker (l outil de vérification de la méthode Model checking). Il est nécessaire d avoir des outils logiciels permettant de réaliser la traduction d un graphe décrit dans un formalisme vers le même graphe (ou une adaptation) décrit dans un autre formalismeThe increasing development of networks and especially the Internet has greatly expanded the gap between heterogeneous information systems. In a review of studies of interoperability of heterogeneous information systems, we find that all the work in this area tends to be in solving the problems of semantic heterogeneity. The W3C (World Wide Web Consortium) standards proposed to represent the semantic ontology. Ontology is becoming an indispensable support for interoperability of information systems, and in particular the semantics. The structure of the ontology is a combination of concepts, properties and relations. This combination is also called a semantic graph. Several languages have been developed in the context of the Semantic Web. Most of these languages use syntax XML (eXtensible Meta Language). The OWL (Ontology Web Language) and RDF (Resource Description Framework) are the most important languages of the Semantic Web, and are based on XML.RDF is the first W3C standard for enriching resources on the Web with detailed descriptions, and increases the facility of automatic processing of Web resources. Descriptions may be characteristics of resources, such as the author or the content of a website. These descriptions are metadata. Enriching the Web with metadata allows the development of the so-called Semantic Web. RDF is used to represent semantic graphs corresponding to a specific knowledge modeling. RDF files are typically stored in a relational database and manipulated using SQL, or derived languages such as SPARQL. This solution is well suited for small RDF graphs, but is unfortunately not well suited for large RDF graphs. These graphs are rapidly evolving, and adapting them to change may reveal inconsistencies. Driving the implementation of changes while maintaining the consistency of a semantic graph is a crucial task, and costly in terms of time and complexity. An automated process is essential. For these large RDF graphs, we propose a new way using formal verification entitled "Model Checking".Model Checking is a verification technique that explores all possible states of the system. In this way, we can show that a model of a given system satisfies a given property. This thesis provides a new method for checking and querying semantic graphs. We propose an approach called ScaleSem which transforms semantic graphs into graphs understood by the Model Checker (The verification Tool of the Model Checking method). It is necessary to have software tools to perform the translation of a graph described in a certain formalism into the same graph (or adaptation) described in another formalismDIJON-BU Doc.électronique (212319901) / SudocSudocFranceF

    Détection d'intrusion à l'aide d'un système expert basé sur l'ontologie

    Get PDF
    Les attaques informatiques sont une réalité importante d’aujourd’hui. Leur omniprésence s’explique par le fait que les attaquants peuvent tirer parti de la complexification de l’environnement des systèmes d’information. Ceci est causé à la fois par une informatisation massive des activités, tel le stockage de données personnelles, et par l’intégration de nouvelles technologies comme les technologies sans-fil. L’appât du gain est en augmentation et les surfaces d’attaque sont plus grandes que jamais. Les mécanismes de défense traditionnels peinent à s’adapter à cet environnement qualifié d’hétérogène à cause du large spectre de types d’information qui le composent. C’est à travers des règles que les systèmes de défense procèdent à la détection d’intrusion. Malheureusement, les langages dans lesquels sont écrites ces règles de détection possèdent plusieurs faiblesses. D’une part, leur écriture demande une grande expertise. D’autre part, les langages permettent difficilement de faire interagir des concepts de nature différente. L’humain a été impliqué dans le processus de détection d’intrusion pour pallier cette dernière faiblesse. Cependant, la détection d’intrusion est sujette aux faiblesses de l’humain, telles que la fiabilité et la performance. Nous proposons d’informatiser le processus de détection d’intrusion avec l’utilisation d’un système expert. Ce type d’outil est un système qui reproduit le raisonnement d’un expert humain. Le système expert que nous proposons est DIOSE (Détection d’Intrusion avec l’Ontologie par un Système Expert). Il sera basé sur les ontologies, qui sont des méthodes de représentation de la connaissance qui permettent d’expliciter un concept afin qu’il soit compréhensible par une machine. La représentation de connaissance par l’ontologie permet de définir un concept pour l’utiliser dans un raisonnement. L’utilisation de base de données ontologique offre une flexibilité qui permet de passer d’une détection basée uniquement sur les événements à une détection basée sur les événements, leur contexte ainsi que les vulnérabilités. Ceci a pour but d’améliorer la détection d’attaques informatiques en faisant une corrélation des différentes informations collectées. Une représentation des connaissances par l’ontologie va également permettre d’utiliser l’abstraction pour approcher le langage des règles de détection d’intrusion vers le langage de l’expert du domaine.----------ABSTRACT: Computer attacks are an important reality today. Their ubiquity is explained by the fact that attackers can take advantage of the growing complexity of the information systems environment. This is due to a massive computerization of activities, such as the storage of personal data, and the integration of new technologies, such as wireless technologies. The lure of gain is increasing and the attack surfaces are bigger than ever. Traditional defence mechanisms are struggling to adapt to this heterogeneous environment due to the broad spectrum of information it contains. It is through detection rules that defence systems perform intrusion detection. Unfortunately, the languages in which these detection rules are written have several weaknesses. On the one hand, their writings require great expertise. On the other hand, these languages make it difficult to make concepts of different natures interact. Humans have been involved in the intrusion detection process to address this weakness. Thereby, intrusion detection is subject to human weaknesses, such as reliability and performance. We propose to computerize the intrusion detection process with the use of an expert system. This type of tool is a system that replicates the reasoning of a human expert. The expert system that we propose is DIOSE (Détection d’Intrusion avec l’Ontologie par un Système Expert). It will be based on ontologies, which are methods of representation of knowledge that make it possible to explain a concept so that it can be understood by a machine. The uses of ontological database provide flexibility that makes it possible to move from a detection based only on events, to a detection based on both events, event contexts and vulnerabilities. This is to improve the detection of computer attacks by correlating different information collected. A representation of knowledge with the ontology will also allow to use the abstraction to bring the language of the rules of detection of intrusion closer to the language of the expert

    Gestion dynamique d'ontologies à partir de textes par systèmes multi-agents adaptatifs

    Get PDF
    Une ontologie est une représentation structurée des connaissances d'un domaine sous la forme d'un réseau conceptuel. Les ontologies sont considérées comme un support indispensable à la communication entre agents logiciels, à l'annotation des sites Web et des ressources documentaires dans une optique de recherche sémantique de l'information. Parce que les connaissances d'un domaine sont amenées à évoluer, une ontologie doit elle aussi évoluer pour rester en cohérence avec le domaine qu'elle modélise. Actuellement, la plupart des travaux traitant de l'évolution d'ontologies se préoccupent de la vérification et du maintien de la cohérence de l'ontologie modifiée. Ces travaux n'apportent pas de solutions concrètes à l'identification de nouvelles connaissances et à leur intégration dans une ontologie. Les travaux en ingénierie d'ontologies à partir de textes quant à eux traitent ce problème d'évolution comme un problème de reconstruction d'une nouvelle ontologie. Souvent, le résultat produit est complètement différent de l'ontologie à modifier. Par ailleurs, les logiciels d'évolution spécifiques à un domaine particulier rendent impossible leur utilisation dans d'autres domaines. Cette thèse propose une solution originale basée sur les systèmes multi-agents adaptatifs (AMAS) pour faire évoluer des ontologies à partir de textes. Chaque terme et concept sont représentés par un agent qui essaie de se situer au bon endroit dans l'organisation qui n'est autre que l'ontologie. Ce travail est concrétisé par un outil nommé DYNAMO. Un besoin d'évolution est déclenché par l'ajout de nouveaux textes dans un corpus de documents. DYNAMO utilise les résultats d'un extracteur de termes et de relations lexicales ainsi qu'un AMAS, nommé DYNAMO MAS, pour proposer une ontologie modifiée à un ontographe. Ce dernier interagit avec DYNAMO MAS via une interface graphique en modifiant l'ontologie proposée (déplacement, ajout, modification de concepts, de termes et/ou de relations), produisant ainsi des contraintes auxquelles l'AMAS doit s'adapter. Cette "coévolution" entre l'AMAS et l'ontographe cesse lorsque l'ontographe juge que l'ontologie modifiée est cohérente avec le nouveau corpus.An ontology is a structured representation of domain knowledge based on a conceptual network. Ontologies are considered as an essential support for the communication between software agents, the annotation of Web sites and textual resources to carry out semantic information retieval. Because domain knowledge can evolve, an ontology must also evolve to remain consistent with the domain that it models. Currently, studies on ontologies evolution are focusing on checking and maintaining the consistency of the evolved ontology. These works do not provide concrete solutions to the identification of new knowledge and its integration into an ontology. Ontology engineering from texts considers evolution as a problem of ontology reconstruction. The result produced by this kind of software is often completely different from the initial ontology. Moreover, it is almost impossible to reuse software designed only for a particular domain. This PhD thesis proposes an original solution based on adaptive multi-agent systems (AMAS) to evolve ontologies from texts. Each term and each concept are agentified and try to find its own right place in the AMAS organization that is the ontology. This work is implemented in a software called DYNAMO. An ontology evolution requirement is triggered by the addition of new texts in a corpus of documents. DYNAMO uses the results of a term extractor and a lexical relation extractor. These results are the input data of an AMAS, called DYNAMO MAS, that evolves an ontology and proposes it to an ontologist. Then, the ontologist interacts with DYNAMO MAS via a graphical interface by modifying the proposed ontology (moving, addition, suppression of concepts, terms and / or relationships). The ontologist's actions are feedback used by the AMAS to adapt the evolved ontology. This "coevolution" process between the AMAS and the ontologist ends when the ontologist judges that the modified ontology is consistent with the new corpus

    Composition dynamique de services sensibles au contexte dans les systèmes intelligents ambiants

    Get PDF
    With the appearance of the paradigms of the ambient intelligence and ubiquitaire robotics, we attend the emergence of new ambient intelligent systems to create and manage environments or intelligent ecosystems in a intuitive and transparent way. These environments are intelligent spaces characterized in particular by the opening, the heterogeneousness, the uncertainty and the dynamicité of the entities which establish(constitute) them. These characteristics so lift(raise) considerable scientific challenges for the conception(design) and the implementation of an adequate intelligent system. These challenges are mainly among five: the abstraction of the representation of the heterogeneous entities, the management of the uncertainties, the reactivity in the events, the sensibility in the context and the auto-adaptationAvec l'apparition des paradigmes de l'intelligence ambiante et de la robotique ubiquitaire, on assiste à l'émergence de nouveaux systèmes intelligents ambiants visant à créer et gérer des environnements ou écosystèmes intelligents d'une façon intuitive et transparente. Ces environnements sont des espaces intelligents caractérisés notamment par l'ouverture, l'hétérogénéité, l'incertitude et la dynamicité des entités qui les constituent. Ces caractéristiques soulèvent ainsi des défis scientifiques considérables pour la conception et la mise en œuvre d'un système intelligent adéquat. Ces défis sont principalement au nombre de cinq : l'abstraction de la représentation des entités hétérogènes, la gestion des incertitudes, la réactivité aux événements, la sensibilité au contexte et l'auto-adaptation face aux changements imprévisibles qui se produisent dans l'environnement ambiant. L'approche par composition dynamique de services constitue l'une des réponses prometteuses à ces défis. Dans cette thèse, nous proposons un système intelligent capable d'effectuer une composition dynamique de services en tenant compte, d'une part, du contexte d'utilisation et des diverses fonctionnalités offertes par les services disponibles dans un environnement ambiant et d'autre part, des besoins variables exprimés par les utilisateurs. Ce système est construit suivant un modèle multicouche, adaptatif et réactif aux événements. Il repose aussi sur l'emploi d'un modèle de connaissances expressif permettant une ouverture plus large vers les différentes entités de l'environnement ambiant notamment : les dispositifs, les services, les événements, le contexte et les utilisateurs. Ce système intègre également un modèle de découverte et de classification de services afin de localiser et de préparer sémantiquement les services nécessaires à la composition de services. Cette composition est réalisée d'une façon automatique et dynamique en deux phases principales: la phase offline et la phase online. Dans la phase offline, un graphe global reliant tous les services abstraits disponibles est généré automatiquement en se basant sur des règles de décision sur les entrées et les sorties des services. Dans la phase online, des sous-graphes sont extraits automatiquement à partir du graphe global selon les tâches à réaliser qui sont déclenchées par des événements qui surviennent dans l'environnement ambiant. Les sous-graphes ainsi obtenus sont exécutés suivant un modèle de sélection et de monitoring de services pour tenir compte du contexte d'utilisation et garantir une meilleure qualité de service. Les différents modèles proposés ont été mis en œuvre et validés sur la plateforme ubiquitaire d'expérimentation du laboratoire LISSI à partir de plusieurs scénarii d'assistance et de maintien de personnes à domicil

    Modèle sémantique d'intelligence ambiante pour le développement « Do-It-Yourself » d'habitats intelligents

    Get PDF
    L’intelligence ambiante utilise l’informatique diffuse, l’Internet des objets et l’intelligence artificielle pour faire émerger de nouvelles solutions technologiques qui facilitent le maintien à domicile des personnes âgées. L’assistance à l’autonomie à domicile passe par un processus de transformation de l’habitat en habitat intelligent. Cette thèse s’intéresse à la proposition d’un modèle sémantique de l’intelligence ambiante. Le but est de proposer un domaine d’interprétation des interactions existantes entre l’habitat, l’Internet des objets, le profil de la personne et l’assistance à offrir. À ce titre, le lien sémantique entre les énoncés permet de formellement spécifier les besoins et les règles d’inférences sont utilisées pour la génération des dispositifs électroniques correspondant aux besoins spécifiés. Le modèle sémantique proposé capture l’essence des concepts du domaine de l'intelligence ambiante. Il organise et structure ainsi la connaissance sous-jacente au sein d’une architecture logicielle. Couche par couche et module par module, cette architecture s’adapte au contexte de l’utilisateur afin de permettre aux personnes ayant peu ou pas de connaissances dans le domaine de concevoir (bricoler) leur propre solution d’assistance et d’accompagnement à la réalisation de certaines activités de la vie quotidienne. Pour faciliter le bricolage (la conception par soi-même), le modèle s’appuie sur des méthodes formelles de spécification, de vérification et de validation des scénarios. Les scénarios décrivent l’agencement et le déroulement des activités à réaliser pour la satisfaction d’un but. Enfin, pour accompagner le processus de bricolage jusqu’au bout, un modèle théorique de positionnement des dispositifs électroniques dans un habitat intelligent est proposé. Une expérimentation à domicile a été menée durant 42 jours chez une personne aînée souffrant de la maladie d’Alzheimer. Les résultats obtenus permettent de valider le fonctionnement du modèle de sensibilité au contexte proposé et de renseigner les proches aidant sur les habitudes de vie de leur aînée. L’assistance offerte a pour objectif de fournir des signaux environnementaux pour favoriser un sommeil réparateur et éviter des épisodes d’errance nocturne, chez les personnes atteintes de la maladie d’Alzheimer

    Modèles sémantiques et raisonnements réactif et narratif, pour la gestion du contexte en intelligence ambiante et en robotique ubiquitaire

    Get PDF
    With the appearance of the paradigms of ubiquitous systems and ambient intelligence, a new domain of research is emerging with the aim of creating intelligent environments and ecosystems, that can provide multiple services that can improve quality of life, the physical and mental status and the social wellness of the users. In this thesis, we address the problem of semantic knowledge representation and reasoning, in the context of ambient intelligent systems and ubiquitous robots. We propose two semantic models that improve the cognitive functions of these systems, in terms of context recognition, and context adaptation. The first one is an ontology-based model, which is associated with a rule language to model reactive reasoning process on contextual knowledge. To take into account the dynamicity of context and insure coherent decision-making, this process guarantees two essential properties: decidability and non-monotonic reasoning. The second model is also an ontology-based model that completes the previous model in terms of expressiveness for semantic representation of non-trivial contexts with temporal dimension It is based on n-ary relations and a narrative representation of events for inferring causalities between events, and therefore to build the chronological context of a situation as from past and current events. The proposed models have been implemented on the ubiquitous experimental platform of LISSI, and validated through three scenarios for cognitive assistance and context recognitionAvec l'apparition des paradigmes des systèmes ubiquitaires ou omniprésents et de l'intelligence ambiante, on assiste à l'émergence d'un nouveau domaine de recherche visant à créer des environnements ou écosystèmes intelligents pouvant offrir une multitude de services permettant d'améliorer la qualité de vie, l'état physique et mental, et le bien-être social des usagers. Dans cette thèse, nous nous focalisons sur la problématique de la représentation sémantique des connaissances et du raisonnement dans le cadre des systèmes à intelligence ambiante et des robots ubiquitaires. Nous proposons deux modèles sémantiques permettant d'améliorer les fonctions cognitives de ces systèmes en termes de gestion du contexte. Au premier modèle, de type ontologique, sont associés un langage de règles et un raisonnement réactif pour la sensibilité au contexte. Pour prendre en compte le caractère dynamique du contexte et assurer une prise de décision cohérente, le mode de raisonnement retenu garantit deux propriétés essentielles : la décidabilité et la non-monotonie. Le deuxième modèle, également de type ontologique, complète le modèle précédent en termes d'expressivité pour la représentation de contextes non-triviaux et/ou liés au temps. Il s'appuie sur des relations n-aires et une représentation narrative des événements pour inférer des causalités entre événements et reconnaitre des contextes complexes non-observables à partir d'événements passés et courants. Les modèles proposés ont été mis en oeuvre et validés sur la plateforme ubiquitaire d'expérimentation du LISSI à partir de trois scenarii d'assistance cognitive et de reconnaissance de context

    Evolution cohérente des ressources termino-ontologiques et des annotations sémantiques

    Get PDF
    Un des enjeux du web sémantique est de produire des caractérisations formelles de contenus documentaires, ou annotations sémantiques, de qualité. Or dans un environnement dynamique, les ressources termino-ontologiques et les annotations sémantiques qu'elles permettent de construire doivent être modifiées régulièrement et en cohérence pour s'adapter à l'évolution du domaine concerné et des collections documentaires annotées. Notre contribution est une méthode qui permet de gérer conjointement l'évolution d'une ressource termino-ontologique et d'annotations sémantiques produites à partir de cette ressource. La méthode définit les types de changements applicables (élémentaires ou complexes), ainsi que des stratégies d'évolution de la ressource et des annotations. Cette méthode est mise en œuvre par le logiciel EvOnto qui s'intègre à l'environnement d'annotation automatique de documents TextViz défini dans le cadre du projet ANR DYNAMO. L'originalité d'EvOnto est de s'adapter à plusieurs scénarios d'évolution suivant que ce soit l'ontologie, la collection documentaire ou les annotations qui soient modifiées. EvOnto assure un support à l'ontologue en le guidant interactivement pour formuler une demande de changement, évaluer son impact (effets supplémentaires) sur la ressource termino-ontologique et aussi sur les annotations sémantiques, et décider ensuite de leur mise en œuvre. Il fournit des informations à l'ontologue pour qu'il décide d'une évolution en connaissant ses conséquences, et qu'il l'adapte pour minimiser les effets négatifs, les impacts non souhaitables ou les coûts correspondants sur la ressource elle-même et son utilisation dans des annotations.One of the challenges of the Semantic Web is to get high quality formal representations that characterize document content, also called semantic annotations. In a dynamic environment, the termino-ontological resources and semantic annotations built thanks to the resources must be regularly and consistently modified to adapt to the evolution of the domain to which they relate and to the annotated document collections. Our contribution is a method to jointly manage the evolution of a termino-ontological resource and semantic annotations built with this resource. The method defines applicable change types (elementary or complex) as well as evolution strategies for both the resource and the document semantic annotations. This method is supported by the EvOnto system that takes place in the TextViz platform for ontology-based automatic document annotation developed in the DYNAMO project. The originality of EvOnto is to preserve the consistency between the termino-ontological resources and the semantic annotations.. EvOnto provides support to the ontologist for different scenarios, and guides him interactively when he requests for a change by assessing its impact (additional effects) on the quality of the termino-ontological resource and also on semantic annotations, and then when he decides on their implementation. EvOnto provides the ontologist with relevant information on the use of ontology so that he takes initiative of a change knowing its consequences, and so that he adapts changes to minimize their negative effects, their undesirable impacts and their related costs on the resource itself and its use in annotations

    Partage et réutilisation de règles sur le Web de données

    Get PDF
    In this thesis we address the problem of publishing, sharing and reusing rules on the Web of data. The approach adopted for sharing rules on the Web is to consider rule bases as particular data sources. Thus, we propose to publish rules using RDF, the standard representation language on the Web of data. We use the standard SPARQL language to query these particular RDF data that represent. rules. We propose a translation of a subset of RIF (Rule Interchange Format), the W3C standard for the exchange of rules on the Web, into a subset of SPARQL queries. Then we use the SPIN language for translating these SPARQL representations of rules into RDF.In other words, we consider the problem of publishing and reusing rules on the Web as a classical problem in knowledge engineering: sharing and reusing knowledge. We propose an approach based on (1) the representation in RDF of rule content and metadata, (2) the interoperability of this representation with the W3C recommendation RIF, (3) the publication of rules on the Web of data and (4) reusing rules by querying RDF data sources representing them with the SPARQL query language. We built a set of SPARQL queries enabling (1) to build specific rule bases for a given context or application, (2) to optimize inference engines based on rule selection with respect to target RDF data sources, (3) to validate and update rule bases. We use the Corese/KGRAM semantic engine to implement and evaluate our proposals.Dans cette thèse nous nous intéressons à la publication, au partage et à la réutilisation de règles sur le Web de données. L'approche que nous avons adoptée pour permettre la réutilisation de règles sur le Web, est de considérer des bases de règles comme des sources de données particulières. Il s'agit de les publier dans le langage RDF, le standard de représentation du Web de données. Nous utilisons des requêtes SPARQL, le standard du Web de données, pour interroger ces données RDF particulières qui représentent des règles. Nous proposons une traduction d'un sous-ensemble du langage RIF, le standard pour l'échange de règles sur le Web, en un sous-ensemble du langage SPARQL (les requêtes de la forme CONSTRUCT). Nous utilisons ensuite le langage SPIN pour traduire en RDF ces représentations de règles dans le langage SPARQL. En d'autres termes, pour répondre au problème de la publication et la réutilisation de règles sur le Web, nous l'envisageons comme un problème classique en ingénierie des connaissances de partage et de réutilisation de connaissances. Nous proposons une approche basée sur (1) la représentation en RDF à la fois du contenu et des méta-données associées aux règles, (2) l'interopérabilité de cette représentation avec la recommandation RIF du W3C, (3) leur publication sur le Web de données et (4) la réutilisation de ces règles basée sur l'interrogation de sources de données RDF représentant des règles à l'aide de requêtes SPARQL. L'implémentation et l'évaluation de nos travaux a été réalisée avec le moteur sémantique Corese/KGRAM

    Vers un entrepôt de données et des processus : le cas de la mobilité électrique chez EDF

    Get PDF
    Nowadays, the electrical vehicles (EV) market is undergoing a rapid expansion and has become ofgreat importance for utility companies such as EDF. In order to fulfill its objectives (demand optimization,pricing, etc.), EDF has to extract and analyze heterogeneous data from EV and charging spots. Inorder to tackle this, we used data warehousing (DW) technology serving as a basis for business process(BP). To avoid the garbage in/garbage out phenomena, data had to be formatted and standardized.We have chosen to rely on an ontology in order to deal with data sources heterogeneity. Because theconstruction of an ontology can be a slow process, we proposed an modular and incremental constructionof the ontology based on bricks. We based our DW on the ontology which makes its construction alsoan incremental process. To upload data to this particular DW, we defined the ETL (Extract, Trasform& Load) process at the semantic level. We then designed recurrent BP with BPMN (Business ProcessModelization & Notation) specifications to extract EDF required knowledge. The assembled DWpossesses data and BP that are both described in a semantic context. We implemented our solutionon the OntoDB platform, developed at the ISAE-ENSMA Laboratory of Computer Science and AutomaticControl for Systems. The solution has allowed us to homogeneously manipulate the ontology, thedata and the BP through the OntoQL language. Furthermore, we added to the proposed platform thecapacity to automatically execute any BP described with BPMN. Ultimately, we were able to provideEDF with a tailor made platform based on declarative elements adapted to their needs.Le marché du véhicule électrique (VE) est aujourd’hui en plein essor et il s’agit d’un marché quireprésente un intérêt pour des industriels comme EDF. Pour réaliser ses objectifs (optimisation de laconsommation, tarification...) EDF doit d’abord extraire des données hétérogènes (issues des VE etdes bornes de recharge) puis les analyser. Pour cela nous nous sommes orientés vers un entrepôt dedonnées (ED) qui est ensuite exploité par les processus métiers (PM). Afin d’éviter le phénomèneGarbage In/Garbage Out, les données doivent être traitées. Nous avons choisi d’utiliser une ontologiepour réduire l’hétérogénéité des sources de données. La construction d’une ontologie étant lente, nousavons proposé une solution incrémentale à base briques ontologiques modulaires liées entre elles. Laconstruction de l’ED, basé sur l’ontologie, est alors incrémentale. Afin de charger des données dansl’ED, nous avons défini les processus ETL (Extract, Transform & Load) au niveau sémantique. Ensuitenous avons modélisé les PM répétitifs selon les spécifications BPMN (Business Process Modelisation& Notation) pour extraire les connaissances requises par EDF de l’ED. L’ED constitué possède lesdonnées et des PM, le tout dans un cadre sémantique. Nous avons implémenté cela sur la plateformeOntoDB développée au Laboratoire d’Informatique et d’Automatique pour les Systèmes de l’ISAEENSMA.Elle nous a permis de manipuler l’ontologie, les données et les PM d’une manière homogènegrâce au langage OntoQL. De plus, nous lui avons fourni la capacité d’exécuter automatiquement lesPM. Cela nous a permis de fournir à EDF une plate-forme adaptée à leurs besoins à base d’élémentsdéclaratifs
    • …
    corecore