7 research outputs found

    Computing CQ lower-bounds over OWL 2 through approximation to RSA

    Full text link
    Conjunctive query (CQ) answering over knowledge bases is an important reasoning task. However, with expressive ontology languages such as OWL, query answering is computationally very expensive. The PAGOdA system addresses this issue by using a tractable reasoner to compute lower and upper-bound approximations, falling back to a fully-fledged OWL reasoner only when these bounds don't coincide. The effectiveness of this approach critically depends on the quality of the approximations, and in this paper we explore a technique for computing closer approximations via RSA, an ontology language that subsumes all the OWL 2 profiles while still maintaining tractability. We present a novel approximation of OWL 2 ontologies into RSA, and an algorithm to compute a closer (than PAGOdA) lower bound approximation using the RSA combined approach. We have implemented these algorithms in a prototypical CQ answering system, and we present a preliminary evaluation of our system that shows significant performance improvements w.r.t. PAGOdA.Comment: 26 pages, 1 figur

    Scalable Reasoning for Knowledge Bases Subject to Changes

    Get PDF
    ScienceWeb is a semantic web system that collects information about a research community and allows users to ask qualitative and quantitative questions related to that information using a reasoning engine. The more complete the knowledge base is, the more helpful answers the system will provide. As the size of knowledge base increases, scalability becomes a challenge for the reasoning system. As users make changes to the knowledge base and/or new information is collected, providing fast enough response time (ranging from seconds to a few minutes) is one of the core challenges for the reasoning system. There are two basic inference methods commonly used in first order logic: forward chaining and backward chaining. As a general rule, forward chaining is a good method for a static knowledge base and backward chaining is good for the more dynamic cases. The goal of this thesis was to design a hybrid reasoning architecture and develop a scalable reasoning system whose efficiency is able to meet the interaction requirements in a ScienceWeb system when facing a large and evolving knowledge base. Interposing a backward chaining reasoner between an evolving knowledge base and a query manager with support of trust yields an architecture that can support reasoning in the face of frequent changes. An optimized query-answering algorithm, an optimized backward chaining algorithm and a trust-based hybrid reasoning algorithm are three key algorithms in such an architecture. Collectively, these three algorithms are significant contributions to the field of backward chaining reasoners over ontologies. I explored the idea of trust in the trust-based hybrid reasoning algorithm, where each change to the knowledge base is analyzed as to what subset of the knowledge base is impacted by the change and could therefore contribute to incorrect inferences. I adopted greedy ordering and deferring joins in optimized query-answering algorithm. I introduced four optimizations in the algorithm for backward chaining. These optimizations are: 1) the implementation of the selection function, 2) the upgraded substitute function, 3) the application of OLDT and 4) solving of the owl: sameAs problem. I evaluated our optimization techniques by comparing the results with and without optimization techniques. I evaluated our optimized query answering algorithm by comparing to a traditional backward-chaining reasoner. I evaluated our trust-based hybrid reasoning algorithm by comparing the performance of a forward chaining algorithm to that of a pure backward chaining algorithm. The evaluation results have shown that the hybrid reasoning architecture with the scalable reasoning system is able to support scalable reasoning of ScienceWeb to answer qualitative questions effectively when facing both a fixed knowledge base and an evolving knowledge base

    Efficient reasoning procedures for complex first-order theories

    Get PDF
    The complexity of a set of first-order formulas results from the size of the set and the complexity of the problem described by its formulas. Decision Procedures for Ontologies This thesis presents new superposition based decision procedures for large sets of formulas. The sets of formulas may contain expressive constructs like transitivity and equality. The procedures decide the consistency of knowledge bases, called ontologies, that consist of several million formulas and answer complex queries with respect to these ontologies. They are the first superposition based reasoning procedures for ontologies that are at the same time efficient, sound, and complete. The procedures are evaluated using the well-known ontologies YAGO, SUMO and CYC. The results of the experiments, which are presented in this thesis, show that these procedures decide the consistency of all three above-mentioned ontologies and usually answer queries within a few seconds. Reductions for General Automated Theorem Proving Sophisticated reductions are important in order to obtain efficient reasoning procedures for complex, particularly undecidable problems because they restrict the search space of theorem proving procedures. In this thesis, I have developed a new powerful reduction rule. This rule enables superposition based reasoning procedures to find proofs in sets of complex formulas. In addition, it increases the number of problems for which superposition is a decision procedure.Die Komplexität einer Formelmenge für einen automatischen Theorembeweiser in Prädikatenlogik 1. Stufe ergibt sich aus der Anzahl der zu betrachtenden Formeln und aus der Komplexität des durch die Formeln beschriebenen Problems. Entscheidungsprozeduren für Ontologien Diese Arbeit entwickelt effiziente auf Superposition basierende Beweisprozeduren für sehr große entscheidbare Formelmengen, die ausdrucksstarke Konstrukte, wie Transitivität und Gleichheit, enthalten. Die Prozeduren ermöglichen es Wissenssammlungen, sogenannte Ontologien, die aus mehreren Millionen Formeln bestehen, auf Konsistenz hin zu überprüfen und Antworten auf komplizierte Anfragen zu berechnen. Diese Prozeduren sind die ersten auf Superposition basierten Beweisprozeduren für große, ausdrucksstarke Ontologien, die sowohl korrekt und vollständig, als auch effizient sind. Die entwickelten Prozeduren werden anhand der weit bekannten Ontologien YAGO, SUMO und CYC evaluiert. Die Experimente zeigen, dass diese Prozeduren die Konsistenz aller untersuchten Ontologien entscheiden und Anfragen in wenigen Sekunden beantworten. Reduktionen für allgemeines Theorembeweisen Um effiziente Prozeduren für das Beweisen in sehr schwierigen und insbesondere in unentscheidbaren Formelmengen zu erhalten, sind starke Reduktionsregeln, die den Beweisraum einschränken, von essentieller Bedeutung. Diese Arbeit entwickelt eine neue mächtige Reduktionsregel, die es Superposition ermöglicht Beweise in sehr schwierigen Formelmengen zu finden und erweitert die Menge von Problemen, für die Superposition eine Entscheidungsprozedur ist

    Answering Object Queries over Knowledge Bases with Expressive Underlying Description Logics

    Get PDF
    Many information sources can be viewed as collections of objects and descriptions about objects. The relationship between objects is often characterized by a set of constraints that semantically encode background knowledge of some domain. The most straightforward and fundamental way to access information in these repositories is to search for objects that satisfy certain selection criteria. This work considers a description logics (DL) based representation of such information sources and object queries, which allows for automated reasoning over the constraints accompanying objects. Formally, a knowledge base K=(T, A) captures constraints in the terminology (a TBox) T, and objects with their descriptions in the assertions (an ABox) A, using some DL dialect L. In such a setting, object descriptions are L-concepts and object identifiers correspond to individual names occurring in K. Correspondingly, object queries are the well known problem of instance retrieval in the underlying DL knowledge base K, which returns the identifiers of qualifying objects. This work generalizes instance retrieval over knowledge bases to provide users with answers in which both identifiers and descriptions of qualifying objects are given. The proposed query paradigm, called assertion retrieval, is favoured over instance retrieval since it provides more informative answers to users. A more compelling reason is related to performance: assertion retrieval enables a transfer of basic relational database techniques, such as caching and query rewriting, in the context of an assertion retrieval algebra. The main contributions of this work are two-fold: one concerns optimizing the fundamental reasoning task that underlies assertion retrieval, namely, instance checking, and the other establishes a query compilation framework based on the assertion retrieval algebra. The former is necessary because an assertion retrieval query can entail a large volume of instance checking requests in the form of K|= a:C, where "a" is an individual name and "C" is a L-concept. This work thus proposes a novel absorption technique, ABox absorption, to improve instance checking. ABox absorption handles knowledge bases that have an expressive underlying dialect L, for instance, that requires disjunctive knowledge. It works particularly well when knowledge bases contain a large number of concrete domain concepts for object descriptions. This work further presents a query compilation framework based on the assertion retrieval algebra to make assertion retrieval more practical. In the framework, a suite of rewriting rules is provided to generate a variety of query plans, with a focus on plans that avoid reasoning w.r.t. the background knowledge bases when sufficient cached results of earlier requests exist. ABox absorption and the query compilation framework have been implemented in a prototypical system, dubbed CARE Assertion Retrieval Engine (CARE). CARE also defines a simple yet effective cost model to search for the best plan generated by query rewriting. Empirical studies of CARE have shown that the proposed techniques in this work make assertion retrieval a practical application over a variety of domains

    Semantische Modellierung und Reasoning für Kontextinformationen in Infrastrukturnetzen

    Get PDF
    Infrastrukturen wie Verkehrs- und Energienetze bilden das Rückgrat unserer Gesellschaft und Wirtschaft. Präzises Wissen über den aktuellen technischen Zustand der Infrastrukturkomponenten gilt als Grundvoraussetzung zur Befriedigung des ständig wachsenden Kapazitätsbedarfs und zur Erhöhung der Kosteneffizienz, insbesondere bei der Instandhaltung. Zwar liefern Fernüberwachungssysteme verschiedener Organisationen bereits heute unterschiedlichste Statusinformationen. Es fehlt jedoch ein generischer Ansatz zur integrierten Auswertung dieser Daten, um komplexe Gesamtzustände der Infrastrukturkomponenten abzuleiten. Diese Arbeit versteht die Zustandsüberwachung für Infrastrukturnetze als ein kontextsensitives System im Sinne der Ambient Intelligence (Umgebungsintelligenz): Fernüberwachungssysteme liefern Kontextinformationen}, und anstelle der Situation einer Entität soll damit der Zustand eines Überwachungsobjekts ermittelt werden. Da sich hierfür bei kontextsensitiven Systemen wissensbasierte Ansätze bewährt haben, überträgt diese Arbeit einen solchen Ansatz auf die Zustandsüberwachung in Infrastrukturnetzen. Damit sollen generische Verfahren sowohl zur Integration als auch zur Auswertung (Reasoning) von Kontextinformationen in Infrastrukturnetzen konzipiert und umgesetzt werden. Eine Analyse von Schienen- und Stromnetzen identifiziert als Anforderungen unter anderem die Interoperabilität der Kontextinformationen zwischen Systemen und Betreibern sowie die Möglichkeit, auch komplexe Zustände ableiten zu können. Die Standards des Semantic Web auf Basis der Beschreibungslogik SHIN bieten hierfür eine attraktive Grundlage und gewährleisten sowohl die Umsetzbarkeit als auch die Zukunftstüchtigkeit. Für die automatisierte Auswertung (Reasoning) müssen die Besonderheiten von Infrastrukturnetzen berücksichtigt werden: Einerseits fallen Kontextinformationen von Überwachungssystemen räumlich verteilt und bei verschiedenen Organisationen an. Deshalb werden Verfahren entwickelt, die konjunktive Anfragen auch bei verteilten Wissensbasen korrekt und vollständig beantworten. Dies wird theoretisch gezeigt und praktisch evaluiert. Andererseits müssen topologiebezogene Anfragen beantwortet werden, wie die Suche nach optimalen Pfaden und k-nächsten Nachbarn. Dazu wird eine hierarchische Modellierung des Infrastrukturnetzes entwickelt. Ein generisches Konzept ermöglicht es, damit verschiedene Verfahren für topologiebezogene Anfragen umzusetzen. Zur praktischen Umsetzung dieser Konzepte in einem Zustandsüberwachungssystem wird eine geschichtete Systemarchitektur spezifiziert. Ein Fallbeispiel aus dem europäischen Schienenverkehr zeigt ihre Realisierung: Mehrere Organisationen stellen unter anderem Achslast-, Gleisgeometrie- und Schienenprofilmessungen als Kontextinformationen zur Verfügung. Unabhängig von deren Verteilung über ganz Europa werten die entwickelten Reasoningverfahren die Semantik der Systemontologie aus und demonstrieren so die zustandsorientierte Wartung des Schienennetzes
    corecore