50 research outputs found

    An expert system for safety instrumented system in petroleum industry

    Get PDF
    The expert system technology has been developed since 1960s and now it has proven to be a useful and effective tool in many areas. It helps shorten the time required to accomplish a certain job and relieve the workload for human staves by implement the task automatically. This master thesis gives general introduction about the expert system and the technologies involved with it. We also discussed the framework of the expert system and how it will interact with the existing cause and effect matrix. The thesis describes a way of implementing automatic textual verification and the possibility of automatic information extraction in the designing process of safety instrumented systems. We use the Protégé application [*] to make models for the Cause and Effect Matrix and use XMLUnit to implement the comparison between two files of interest

    Ontology-based context-aware model for event processing in an IoT environment

    Get PDF
    The Internet of Things (IoT) is more and more becoming one of the fundamental sources of data. The observations produced by these sources are made accessible with heterogeneous vocabularies, models and data formats. The heterogeneity factor in such an enormous environment complicates the task of sharing and reusing this data in a more intelligent way (other than the purposes it was initially set up for). In this research, we investigate these challenges, considering how we can transform raw sensor data into a more meaningful information. This raw data will be modelled using ontology-based information that is accessible through continuous queries for sensor streaming data.Interoperability among heterogeneous entities is an important issue in an IoT environment. Semantic modelling is a key element to support interoperability. Most of the current ontologies for IoT mainly focus on resources and services information. This research builds upon the current state-of-the-art ontologies to provide contextual information and facilitate sensor data querying. In this research, we present an Ontology to represent an IoT environment, with emphasis on temporal and geospatial context enrichment. Furthermore, the Ontology is used alongside a proposed syntax based on Description Logic to build an Event Processing Model. The aim of this model is to interconnect ontology-based reasoning with event processing. This model enables to perform event processing over high-level ontological concepts.The Ontology was developed using the NeOn methodology, which emphasises on the reuse and modularisation. The Competency Questions techniques was used to develop the requirements of this Ontology. This was later evaluated by domain experts in software engineering and cloud computing. The ontology was evaluated based on its completeness, conciseness, consistency and expandability, over 70% of the domain experts agreed on the core modules, concepts and relationships within the ontology. The resulted Ontology provides a core IoT ontology that could be used for further development within a specific IoT domain. IIThe proposed Ontology-Based Context-Aware model for Event-Processing in an IoT environment “OCEM-IoT”, implements all the time operators used in complex event processing engines. Throughput and latency were used as performance comparison metrics for the syntax evaluation; the results obtained show an improved performance over existing event processing languages

    Knowledge Organization and Terminology: application to Cork

    Get PDF
    This PhD thesis aims to prove the relevance of texts within the conceptual strand of terminological work. Our methodology serves to demonstrate how linguists can infer knowledge information from texts and subsequently systematise it, either through semiformal or formal representations. We mainly focus on the terminological analysis of specialised corpora resorting to semi-automatic tools for text analysis to systematise lexical-semantic relationships observed in specialised discourse context and subsequent modelling of the underlying conceptual system. The ultimate goal of this methodology is to propose a typology that can help lexicographers to write definitions. Based on the double dimension of Terminology, we hypothesise that text and logic modelling do not go hand in hand since the latter does not directly relate to the former. We highlight that knowledge and language are crucial for knowledge systematisation, albeit keeping in mind that they pertain to different levels of analysis, for they are not isomorphic. To meet our goals, we resorted to specialised texts produced within the industry of cork. These texts provide us with a test bed made of knowledge-rich data which enable us to demonstrate our deductive mechanisms employing the Aristotelian formula: X=Y+DC through the linguistic and conceptual analysis of the semi-automatically extracted textual data. To explore the corpus, we resorted to text mining strategies where regular expressions play a central role. The final goal of this study is to create a terminological resource for the cork industry, where two types of resources interlink, namely the CorkCorpus and the OntoCork. TermCork is a project that stems from the organisation of knowledge in the specialised field of cork. For that purpose, a terminological knowledge database is being developed to feed an e-dictionary. This e-dictionary is designed as a multilingual and multimodal product, where several resources, namely linguistic and conceptual ones are paired. OntoCork is a micro domain-ontology where the concepts are enriched with natural language definitions and complemented with images, either annotated with metainformation or enriched with hyperlinks to additional information, such as a lexicographic resource. This type of e-dictionary embodies what we consider a useful terminological tool in the current digital information society: accounting for its main features, along with an electronic format that can be integrated into the Semantic Web due to its interoperability data format. This aspect emphasises its contribution to reduce ambiguity as much as possible and to increase effective communication between experts of the domain, future experts, and language professionals.Cette thèse vise à prouver la pertinence des textes dans le volet conceptuel du travail terminologique. Notre méthodologie sert à démontrer comment les linguistes peuvent déduire des informations de connaissance à partir de textes et les systématiser par la suite, soit à travers des représentations semi-formelles ou formelles. Nous nous concentrons principalement sur l'analyse terminologique de corpus spécialisé faisant appel à des outils semi-automatiques d'analyse de texte pour systématiser les relations lexico-sémantiques observées dans un contexte de discours spécialisé et la modélisation ultérieure du système conceptuel sous-jacent. L’objectif de cette méthodologie est de proposer une typologie qui peut aider les lexicographes à rédiger des définitions. Sur la base de la double dimension de la terminologie, nous émettons l'hypothèse que la modélisation textuelle et logique ne va pas de pair puisque cette dernière n'est pas directement liée à la première. Nous soulignons que la connaissance et le langage sont essentiels pour la systématisation des connaissances, tout en gardant à l'esprit qu'ils appartiennent à différents niveaux d'analyse, car ils ne sont pas isomorphes. Pour atteindre nos objectifs, nous avons eu recours à des textes spécialisés produits dans l'industrie du liège. Ces textes nous fournissent un banc d'essai constitué de données riches en connaissances qui nous permettent de démontrer nos mécanismes déductifs utilisant la formule aristotélicienne : X = Y + DC à travers l'analyse linguistique et conceptuelle des données textuelles extraites semi-automatiquement. Pour l'exploitation du corpus, nous avons recours à des stratégies de text mining où les expressions régulières jouent un rôle central. Le but de cette étude est de créer une ressource terminologique pour l'industrie du liège, où deux types de ressources sont liés, à savoir le CorkCorpus et l'OntoCork. TermCork est un projet qui découle de l'organisation des connaissances dans le domaine spécialisé du liège. À cette fin, une base de données de connaissances terminologiques est en cours de développement pour alimenter un dictionnaire électronique. Cet edictionnaire est conçu comme un produit multilingue et multimodal, où plusieurs ressources, à savoir linguistiques et conceptuelles, sont jumelées. OntoCork est une micro-ontologie de domaine où les concepts sont enrichis de définitions de langage naturel et complétés par des images, annotées avec des méta-informations ou enrichies d'hyperliens vers des informations supplémentaires. Ce type de dictionnaire électronique désigne ce que nous considérons comme un outil terminologique utile dans la société de l'information numérique actuelle : la prise en compte de ses principales caractéristiques, ainsi qu'un format électronique qui peut être intégré dans le Web sémantique en raison de son format de données d'interopérabilité. Cet aspect met l'accent sur sa contribution à réduire autant que possible l'ambiguïté et à accroître l'efficacité de la communication entre les experts du domaine, les futurs experts et les professionnels de la langue

    Grounding the Interaction : Knowledge Management for Interactive Robots

    Get PDF
    Avec le développement de la robotique cognitive, le besoin d’outils avancés pour représenter, manipuler, raisonner sur les connaissances acquises par un robot a clairement été mis en avant. Mais stocker et manipuler des connaissances requiert tout d’abord d’éclaircir ce que l’on nomme connaissance pour un robot, et comment celle-ci peut-elle être représentée de manière intelligible pour une machine. \ud \ud Ce travail s’efforce dans un premier temps d’identifier de manière systématique les besoins en terme de représentation de connaissance des applications robotiques modernes, dans le contexte spécifique de la robotique de service et des interactions homme-robot. Nous proposons une typologie originale des caractéristiques souhaitables des systèmes de représentation des connaissances, appuyée sur un état de l’art détaillé des outils existants dans notre communauté. \ud \ud Dans un second temps, nous présentons en profondeur ORO, une instanciation particulière d’un système de représentation et manipulation des connaissances, conçu et implémenté durant la préparation de cette thèse. Nous détaillons le fonctionnement interne du système, ainsi que son intégration dans plusieurs architectures robotiques complètes. Un éclairage particulier est donné sur la modélisation de la prise de perspective dans le contexte de l’interaction, et de son interprétation en terme de théorie de l’esprit. \ud \ud La troisième partie de l’étude porte sur une application importante des systèmes de représentation des connaissances dans ce contexte de l’interaction homme-robot : le traitement du dialogue situé. Notre approche et les algorithmes qui amènent à l’ancrage interactif de la communication verbale non contrainte sont présentés, suivis de plusieurs expériences menées au Laboratoire d’Analyse et d’Architecture des Systèmes au CNRS à Toulouse, et au groupe Intelligent Autonomous System de l’université technique de Munich. Nous concluons cette thèse sur un certain nombre de considérations sur la viabilité et l’importance d’une gestion explicite des connaissances des agents, ainsi que par une réflexion sur les éléments encore manquant pour réaliser le programme d’une robotique “de niveau humain”.-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------With the rise of the so-called cognitive robotics, the need of advanced tools to store, manipulate, reason about the knowledge acquired by the robot has been made clear. But storing and manipulating knowledge requires first to understand what the knowledge itself means to the robot and how to represent it in a machine-processable way. \ud \ud This work strives first at providing a systematic study of the knowledge requirements of modern robotic applications in the context of service robotics and human-robot interaction. What are the expressiveness requirement for a robot? what are its needs in term of reasoning techniques? what are the requirement on the robot's knowledge processing structure induced by other cognitive functions like perception or decision making? We propose a novel typology of desirable features for knowledge representation systems supported by an extensive review of existing tools in our community. \ud \ud In a second part, the thesis presents in depth a particular instantiation of a knowledge representation and manipulation system called ORO, that has been designed and implemented during the preparation of the thesis. We elaborate on the inner working of this system, as well as its integration into several complete robot control stacks. A particular focus is given to the modelling of agent-dependent symbolic perspectives and their relations to theories of mind. \ud \ud The third part of the study is focused on the presentation of one important application of knowledge representation systems in the human-robot interaction context: situated dialogue. Our approach and associated algorithms leading to the interactive grounding of unconstrained verbal communication are presented, followed by several experiments that have taken place both at the Laboratoire d'Analyse et d'Architecture des Systèmes at CNRS, Toulouse and at the Intelligent Autonomous System group at Munich Technical University. \ud \ud The thesis concludes on considerations regarding the viability and importance of an explicit management of the agent's knowledge, along with a reflection on the missing bricks in our research community on the way towards "human level robots". \ud \u

    On Interdisciplinary Development of Safety-Critical Automotive Assistance and Automation Systems

    Get PDF
    Assistenz- und Automationssysteme im Automobil zeichnen sich verstärkt durch eine große Komplexität und einen hohen Vernetzungsgrad aus. Weiterhin existiert eine Vielzahl von Anforderungen anderer Fachdisziplinen an die Funktionsentwicklung, beispielsweise im Bereich der funktionalen Sicherheit. Somit ergibt sich für Entwickler nicht nur eine gestiegene Komplexität der Systeme, sondern auch der einzuhaltenden Entwicklungsprozesse. Die vorliegende Arbeit liefert eine neue Methode, die Entwickler bei der Bewältigung dieser Komplexität unterstützt. Dabei wird ihnen problemorientiert und zielgerichtet relevantes Wissen anderer Fachdisziplinen aufbereitet und zur Verfügung gestellt. Somit können Entwurfsalternativen früher als bisher im Kontext der Gesamtentwicklung bewertet werden, was sich positiv auf Produktqualität und Entwicklungszeit auswirkt. Die Basis dieser Methode ist die offen und flexibel gestaltete Formalisierung des Entwicklungsprozesses unter Verwendung der Web Ontology Language (OWL). Darauf aufbauend werden interdisziplinäre Entwicklungsaktivitäten verknüpft und die Analysierbarkeit des formalisierten Wissens wird für automatische Schlussfolgerungen genutzt. So werden insbesondere Einflussanalysen möglich, um über die eigene Domäne hinaus Änderungen bezüglich des Gesamtentwicklungsprozesses zu bewerten. Im Rahmen dieser Arbeit wurde eine prototypische Werkzeugkette implementiert, die die beschriebene Methode umsetzt und deren technische Realisierbarkeit demonstriert. Als Anwendungsbeispiel dient die angedeutete Weiterentwicklung eines radarbasierten Abstandsregeltempomaten zu einem Notbremssystem. Dabei wird insbesondere der Einfluss der funktionalen Sicherheit auf die Funktionsentwicklung beleuchtet, indem aus einem formalisierten Wissensmodell des Standards ISO 26262 notwendige Anforderungen und Methoden für den Gesamtentwicklungsprozess abgeleitet werden.Automotive assistance and automation systems increasingly present high levels of complexity and connectivity. In addition, more and more specific requirements in disciplines like functional safety have to be considered during functional development. Thus, developers have to cope with increasing levels of product complexity, but also complexity of the development process. This thesis presents a new method which supports developers in handling these dimensions of complexity. Therefore relevant knowledge of other disciplines is presented to them in a solution-oriented way. Thus, design alternatives can be assessed much earlier in the overall development process which has a positive impact on product quality and development cycles. The method’s base is an open and flexible formalization of the development process using the Web Ontology Language (OWL). OWL is used to link different interdisciplinary development activities whereas the analyzability of formalized knowledge enables automated reasoning. This especially introduces an impact analysis to assess major cross-cutting changes to the product in the context of the overall development process. For this thesis a prototype toolchain has been developed which implements the described method and demonstrates its technical feasibility. The extension of a radar-based adaptive cruise control system towards an emergency braking system is sketched as an example for the prototype toolchain. In this example, the impact of functional safety on the functional development is focused, involving a formalized model of requirements and methods from ISO 26262

    Knowledge-Based Design Patterns for Detailed Ship Structural Design

    Get PDF
    For detailed ship structural design standardization is a means to ensure a consistent build quality and to reduce design costs. With standards expressed electronically and using a knowledge-based approach, a rule-based system for the automatic design of standardized structural details is presented. For selected problems the corresponding rule formulations are developed; more advanced design tasks are solved by a bottom-up approach. As a result, the automatic, standards compliant design and validation is achieved, hence ensuring consistency as well as reducing the probability of design errors
    corecore