83 research outputs found

    Grundlagen der Anfrageverarbeitung beim relationalen Datenaustausch

    Get PDF
    Relational data exchange deals with translating relational data according to a given specification. This problem is one of the many tasks that arise in data integration, for example, in data restructuring, in ETL (Extract-Transform-Load) processes used for updating data warehouses, or in data exchange between different, possibly independently created, applications. Systems for relational data exchange exist for several decades now. Motivated by their experiences with one of those systems, Fagin, Kolaitis, Miller, and Popa (2003) studied fundamental and algorithmic issues arising in relational data exchange. One of these issues is how to answer queries that are posed against the target schema (i.e., against the result of the data exchange) so that the answers are consistent with the source data. For monotonic queries, the certain answers semantics proposed by Fagin, Kolaitis, Miller, and Popa (2003) is appropriate. For many non-monotonic queries, however, the certain answers semantics was shown to yield counter-intuitive results. This thesis deals with computing the certain answers for monotonic queries on the one hand, and on the other hand, it deals with the issue of which semantics are appropriate for answering non-monotonic queries, and how hard it is to evaluate non-monotonic queries under these semantics. As shown by Fagin, Kolaitis, Miller, and Popa (2003), computing the certain answers for unions of conjunctive queries - a subclass of the monotonic queries - basically reduces to computing universal solutions, provided the data transformation is specified by a set of tgds (tuple-generating dependencies) and egds (equality-generating dependencies). If M is such a specification and S is a source database, then T is called a solution for S under M if T is a possible result of translating S according to M. Intuitively, universal solutions are most general solutions. Since the above-mentioned work by Fagin, Kolaitis, Miller, and Popa it was unknown whether it is decidable if a source database has a universal solution under a given data exchange specification. In this thesis, we show that this problem is undecidable. More precisely, we construct a specification M that consists of tgds only so that it is undecidable whether a given source database has a universal solution under M. From the proof it also follows that it is undecidable whether the chase procedure - by which universal models can be obtained - terminates on a given source database and the set of tgds in M. The above results in particular strengthen results of Deutsch, Nash, and Remmel (2008). Concerning the issue of which semantics are appropriate for answering non-monotonic queries, we study several semantics for answering such queries. All of these semantics are based on the closed world assumption (CWA). First, the CWA-semantics of Libkin (2006) are extended so that they can be applied to specifications consisting of tgds and egds. The key is to extend the concept of CWA-solution, on which the CWA-semantics are based. CWA-solutions are characterized as universal solutions that are derivable from the source database using a suitably controlled version of the chase procedure. In particular, if CWA-solutions exist, then there is a minimal CWA-solution that is unique up to isomorphism: the core of the universal solutions introduced by Fagin, Kolaitis, and Popa (2003). We show that evaluation of a query under some of the CWA-semantics reduces to computing the certain answers to the query on the minimal CWA-solution. The CWA-semantics resolve some the known problems with answering non-monotonic queries. There are, however, two natural properties that are not possessed by the CWA-semantics. On the one hand, queries may be answered differently with respect to data exchange specifications that are logically equivalent. On the other hand, there are queries whose answer under the CWA-semantics intuitively contradicts the information derivable from the source database and the data exchange specification. To find an alternative semantics, we first test several CWA-based semantics from the area of deductive databases for their suitability regarding non-monotonic query answering in relational data exchange. More precisely, we focus on the CWA-semantics by Reiter (1978), the GCWA-semantics (Minker 1982), the EGCWA-semantics (Yahya, Henschen 1985) and the PWS-semantics (Chan 1993). It turns out that these semantics are either too weak or too strong, or do not possess the desired properties. Finally, based on the GCWA-semantics we develop the GCWA*-semantics which intuitively possesses the desired properties. For monotonic queries, some of the CWA-semantics as well as the GCWA*-semantics coincide with the certain answers semantics, that is, results obtained for the certain answers semantics carry over to those semantics. When studying the complexity of evaluating non-monotonic queries under the above-mentioned semantics, we focus on the data complexity, that is, the complexity when the data exchange specification and the query are fixed. We show that in many cases, evaluating non-monotonic queries is hard: co-NP- or NP-complete, or even undecidable. For example, evaluating conjunctive queries with at least one negative literal under simple specifications may be co-NP-hard. Notice, however, that this result only says that there is such a query and such a specification for which the problem is hard, but not that the problem is hard for all such queries and specifications. On the other hand, we identify a broad class of queries - the class of universal queries - which can be evaluated in polynomial time under the GCWA*-semantics, provided the data exchange specification is suitably restricted. More precisely, we show that universal queries can be evaluated on the core of the universal solutions, independent of the source database and the specification.Beim relationalen Datenaustausch geht es um die Transformation relationaler Daten gemĂ€ĂŸ einer vorgegebenen Spezifikation. Dieses Problem ist eines der vielen Probleme, die bei der Informationsintegration anfallen, und unterliegt Anwendungen wie der Datenrestrukturierung, dem Austausch von Daten zwischen unabhĂ€ngig voneinander entwickelten Anwendungen und der Aktualisierung von DatenwarenhĂ€usern mittels ETL. Systeme fĂŒr den relationalen Datenaustausch existieren bereits seit einiger Zeit. Motiviert durch die Erfahrungen mit solch einem System haben sich Fagin, Kolaitis, Miller und Popa (2003) genauer mit grundlegenden und algorithmischen Fragestellungen zum relationalen Datenaustausch auseinandergesetzt. Eine dieser Fragestellungen ist, wie Anfragen ĂŒber dem Zielschema (d.h. Anfragen an das Resultat des Datenaustauschs) beantwortet werden können, so dass die Antworten semantisch konsistent mit den Eingabedaten sind. FĂŒr monotone Anfragen ist die von Fagin, Kolaitis, Miller und Popa (2003) vorgestellte Sichere Antworten-Semantik gut geeignet. FĂŒr viele nicht-monotone Anfragen liefert sie jedoch unnatĂŒrliche Antworten. Die vorliegende Dissertation beschĂ€ftigt sich zum Einen mit der Berechnung der sicheren Antworten fĂŒr monotone Anfragen und zum Anderen mit der Problematik, was geeignete Semantiken fĂŒr nicht-monotone Anfragen sind und wie schwer es ist, nicht-monotone Anfragen unter diesen Semantiken auszuwerten. Die Berechnung der sicheren Antworten fĂŒr Vereinigungen konjunktiver Anfragen - einer Teilklasse der monotonen Anfragen - reduziert sich nach Fagin, Kolaitis, Miller und Popa (2003) im Wesentlichen auf die Berechnung universeller Lösungen, wenn die Datentransformation durch eine Menge so genannter tgds (engl. tuple-generating dependencies) und egds (engl. equality-generating dependencies) spezifiziert wurde. Wenn M solch eine Spezifikation und S eine Quelldatenbank ist, so nennt man T eine Lösung fĂŒr S unter M, wenn T ein mögliches Resultat der Transformation von S bezĂŒglich M ist. Universelle Lösungen sind intuitiv allgemeinste Lösungen. Seit der oben genannten Arbeit von Fagin, Kolaitis, Miller und Popa war unbekannt, ob die Existenz universeller Lösungen fĂŒr eine gegebene Quelldatenbank entscheidbar ist. In der vorliegenden Dissertation wird gezeigt, dass dieses Problem unentscheidbar ist. Genauer wird gezeigt, dass es bereits eine feste Spezifikation M mittels tgds gibt, so dass unentscheidbar ist, ob eine gegebene Quelldatenbank unter M eine universelle Lösung besitzt. Nebenbei folgt aus dem Beweis, dass das Problem, ob die zur Berechnung universeller Lösungen eingesetzte Chase-Prozedur fĂŒr die Menge der tgds in M bei gegebener Quelldatenbank terminiert, unentscheidbar ist. Die oben genannten Resultate verstĂ€rken insbesondere Ergebnisse von Deutsch, Nash und Remmel (2008). Zu der Frage, was geeignete Semantiken fĂŒr nicht-monotone Anfragen sind, werden verschiedene Semantiken fĂŒr nicht-monotone Anfragen untersucht. All diese Semantiken basieren auf der so genannten Closed World Assumption (CWA). ZunĂ€chst werden die von Libkin (2006) eingefĂŒhrten CWA-Semantiken so erweitert, dass diese auf Spezifikationen durch tgds und egds anwendbar sind. Der SchlĂŒssel dazu ist die Erweiterung des Konzeptes der CWA-Lösungen, auf dem die CWA-Semantiken basieren. CWA-Lösungen werden als universelle Lösungen charakterisiert, die durch eine spezielle Variante der Chase-Prozedur aus einer Quelldatenbank abgeleitet werden können. Insbesondere gibt es eine bis auf Isomorphie eindeutige minimale CWA-Lösung (falls mindestens eine CWA-Lösung existiert): den von Fagin, Kolaitis und Popa (2003) eingefĂŒhrten Kern der universellen Lösungen. Die Auswertung von Anfragen unter einigen der CWA-Semantiken lassen sich auf die Berechnung der sicheren Antworten der Anfrage auf einer solchen minimalen CWA-Lösung reduzieren. Die CWA-Semantik beseitigt einige der bekannten Probleme bei der Beantwortung nicht-monotoner Anfragen. Es gibt jedoch zwei natĂŒrliche Eigenschaften, die die CWA-Semantiken nicht besitzen. Zum Einen werden Anfragen unter logisch Ă€quivalenten Spezifikationen nicht notwendigerweise gleich beantwortet. Des Weiteren gibt es Anfragen, deren Antwort unter den CWA-Semantiken intuitiv den aus der Quelldatenbank und der Spezifikation ableitbaren Information widerspricht. Um eine alternative Semantik zu finden, werden zuerst verschiedene CWA-basierte Semantiken aus dem Bereich der deduktiven Datenbanken betrachtet und auf ihre Tauglichkeit zur Beantwortung nicht-monotoner Anfragen im relationalen Datenaustausch untersucht. Genauer konzentrieren wir uns hier auf die CWA-Semantik von Reiter (1978), die GCWA-Semantik (Minker 1982), die EGCWA-Semantik (Yahya, Henschen 1985) und die PWS-Semantik (Chan 1993). Es stellt sich heraus, dass diese Semantiken zu stark oder zu schwach sind bzw. nicht die erforderlichen Eigenschaften aufweisen. Schließlich wird basierend auf der GCWA-Semantik die GCWA*-Semantik entwickelt, die intuitiv die gewĂŒnschten Eigenschaften besitzt. FĂŒr monotone Anfragen stimmen einige der CWA-Semantiken sowie die GCWA*-Semantik mit der Sicheren Antworten-Semantik ĂŒberein, d.h. Resultate fĂŒr die Sichere Antworten-Semantik gehen auf diese Semantiken ĂŒber. Bei der Frage, wie schwer es ist, nicht-monotone Anfragen unter den oben angesprochenen Semantiken auszuwerten, konzentrieren wir uns auf die DatenkomplexitĂ€t, d.h. die KomplexitĂ€t bei fester Spezifikation und Anfrage. Wir zeigen, dass die Auswertung nicht-monotoner Anfragen in vielen FĂ€llen sehr schwierig ist: co-NP- bzw. NP-schwer bzw. sogar unentscheidbar in der DatenkomplexitĂ€t. So kann z.B. die Auswertung konjunktiver Anfragen mit nur einem zusĂ€tzlichen negativen Literal unter bereits sehr einfachen Spezifikationen co-NP-hart sein. Man beachte, dass dieses Resultat besagt, dass es eine schwierige Anfrage und eine schwierige Spezifikation gibt, jedoch nicht, dass alle solchen Anfragen und Spezifikationen schwer sind. Auf der anderen Seite identifizieren wir eine grĂ¶ĂŸere Klasse von Anfragen - die so genannten universellen Anfragen -, die sich unter der GCWA*-Semantik in Polynomialzeit auswerten lassen, wenn die Spezifikation der Datentransformation genĂŒgend eingeschrĂ€nkt ist. PrĂ€ziser wird gezeigt, dass universelle Anfragen unabhĂ€ngig von der (genĂŒgend eingeschrĂ€nkten) Spezifikation und der Quelldatenbank auf dem Kern der universellen Lösungen in Polynomialzeit auswertet werden können, auf dem auch eine Vielzahl anderer Anfragen ausgewertet werden können

    Zugriff auf multimediale XML-Dokumente in Objekt-relationalen Datenbanksystemen

    Get PDF
    In den letzten Jahren hat die Thematik wireless-orientierter, multimedialer Content Management Systeme zunehmend an Bedeutung gewonnen. In diesem Kontext kann die Extensible Markup Language (XML) zur Verbesserung einer grossen Bandbreite möglicher Anwendungen beitragen. Diese Arbeit widmet sich der Systemkonzeption einer Schnittstelle zum jeweiligen Datenbanksystem, die eine Nutzung der objekt-relationalen Multimedia-FĂ€higkeit zulĂ€ĂŸt und die Ableitung der jeweiligen anwendungs- und endgerĂ€teabhĂ€ngigen PrĂ€sentation ermöglicht. Die zugehörige XML-basierte Request-Bearbeitungs und Anfrage-Transformations-Strategien werden diskutiert

    Basiskomponenten von XML Datenbanksystemen

    Get PDF
    FĂŒr die Entwicklung von vielen kleinen und großen Softwaresystemen reichen herkömmliche (objekt-)relationale Datenbanksysteme nicht mehr aus. Viele interessante Daten sind in der Praxis nicht voll strukturiert und somit nicht effektiv mit einem Standarddatenbanksystem zu verwalten. Es werden deshalb neuartige standardisierte Systeme fĂŒr unstrukturierte bzw. semi-strukturierte Daten benötigt. Diese LĂŒcke wird nun von nativen XML Datenbanksystemen geschlossen, die als Datenformat das vom W3C standardisierte XML verwenden. XML Datenbanksysteme unterstĂŒtzen außerdem viele weitere XML Standards, wie beispielsweise XSchema fĂŒr Grammatiken, XPath und XQuery fĂŒr die Anfrageverarbeitung, XSLT fĂŒr Transformationen und DOM und SAX fĂŒr die Applikationsanbindung. In dieser Arbeit werden Grundlagen von nativen XML Datenbanksystemen betrachtet, sowie neue Strukturen vorgeschlagen und alte Strukturen optimiert. Es wird auf eine solide Basis zum Testen von Algorithmen Wert gelegt. Hierzu wurde ein Testframework innerhalb der Java-Bibliothek XXL implementiert und anschließend verwendet. Die XXL Bibliothek enthielt bereits vor dieser Arbeit einige Komponenten, die fĂŒr die Implementierung von Datenbanksystemen eingesetzt werden konnten, beispielsweise eine generische Anfrageverarbeitung und Indexstrukturen. ZusĂ€tzlich zu den vorhandenen Komponenten wurden nun neue hinzugefĂŒgt, so z.B. eine Komponente fĂŒr den direkten Festplattenzugriff, ein frei konfigurierbarer Recordmanager, sowie ein Datenbank-Framework. Das zentrale Anliegen der Arbeit ist die Optimierung der Speicherungsebene von nativen XML Datenbanksystemen. Wichtig ist, dass bei der Abbildung von XML Dokumenten auf den Externspeicher die Baumstruktur erhalten bleibt und somit eine performante Anfragenverarbeitung mit wenigen Externspeicherzugriffen möglich wird. Ähnlich wie bei R-BĂ€umen, können fĂŒr XML Speicherungsstrukturen verschiedene Splitalgorithmen angegeben werden, die gewisse Heuristiken verfolgen. Hier zeigte sich der neu entwickelte, so genannte OneCutSplit mit Scaffold als klar ĂŒberlegen gegenĂŒber den bisher bekannten Splitalgorithmen aus der Literatur. FĂŒr das EinfĂŒgen von Dokumenten wurde weiterhin ein Bulkloading Mechanismus implementiert. Es konnte gezeigt werden, dass die Speicherstruktur fĂŒr die hiermit erzeugten Dokumente deutlich besser war als bei der Benutzung von Splitalgorithmen. Dies macht sich erheblich in den Antwortzeiten von Anfragen bemerkbar. Zur Beschleunigung der Anfrageverarbeitung sind in nativen XML Datenbanksystemen Indexstrukturen unverzichtbar. Zu diesem Zweck wurde ein neuartiger Signaturindex entwickelt und in die XML Speicherungsstruktur unter Verwendung von Aggregaten integriert. Die Evaluierung des Indexes zeigte einen deutlichen Vorteil bei der Auswertung von XPath-AusdrĂŒcken. Weiterhin konnten erstmals durch die Benutzung des Datenbank-Frameworks von XXL native Speicherungsverfahren fĂŒr XML mit solchen verglichen werden, die auf relationalen Datenbanksystemen aufsetzen. Hierbei zeigte sich, dass nativer XML Speicher auch bei einfachen XPath-Anfragen gute Leistungswerte besitzt. Bei Navigations- und Änderungsoperationen ist der native XML Speicher den relationalen Verfahren deutlich ĂŒberlegen. In der Anfrageverarbeitung auf XML Daten spielen allerdings nicht nur XPath und XQuery eine Rolle. FĂŒr die Bearbeitung von großen Mengen von XML Dokumenten sind Operatoren sinnvoll, welche eine Verarbeitung durch Abbildung von XML Dokumenten auf neue XML Dokumente realisieren. Dies ist analog zur relationalen Algebra, in der allerdings der Grunddatentyp Tupel Verwendung findet. Im Vergleich zum relationalen Modell werden fĂŒr XML jedoch viele verschiedene Operatoren benötigt, die nicht auf wenige Grundoperationen zurĂŒckgefĂŒhrt werden können. In dieser Arbeit werden einige neue Operatoren vorgestellt, die nicht nur fĂŒr die Anfrageverarbeitung innerhalb von XML Datenbanksystemen, sondern auch fĂŒr Anfragen im Internet geeignet sind. Durch das entwickelte Framework soll es Anwendern in Zukunft auf einfache Art und Weise möglich sein, Internetquellen in eigene Anfragen einzubauen

    DatenqualitÀt in Sensordatenströmen

    Get PDF
    Die stetige Entwicklung intelligenter Sensorsysteme erlaubt die Automatisierung und Verbesserung komplexer Prozess- und GeschĂ€ftsentscheidungen in vielfĂ€ltigen Anwendungsszenarien. Sensoren können zum Beispiel zur Bestimmung optimaler Wartungstermine oder zur Steuerung von Produktionslinien genutzt werden. Ein grundlegendes Problem bereitet dabei die SensordatenqualitĂ€t, die durch UmwelteinflĂŒsse und SensorausfĂ€lle beschrĂ€nkt wird. Ziel der vorliegenden Arbeit ist die Entwicklung eines DatenqualitĂ€tsmodells, das Anwendungen und Datenkonsumenten QualitĂ€tsinformationen fĂŒr eine umfassende Bewertung unsicherer Sensordaten zur VerfĂŒgung stellt. Neben Datenstrukturen zur effizienten DatenqualitĂ€tsverwaltung in Datenströmen und Datenbanken wird eine umfassende DatenqualitĂ€tsalgebra zur Berechnung der QualitĂ€t von Datenverarbeitungsergebnissen vorgestellt. DarĂŒber hinaus werden Methoden zur DatenqualitĂ€tsverbesserung entwickelt, die speziell auf die Anforderungen der Sensordatenverarbeitung angepasst sind. Die Arbeit wird durch AnsĂ€tze zur nutzerfreundlichen DatenqualitĂ€tsanfrage und -visualisierung vervollstĂ€ndigt

    VertrauenswĂŒrdige, adaptive Anfrageverarbeitung in dynamischen Sensornetzwerken zur UnterstĂŒtzung assistiver Systeme

    Get PDF
    Assistenzsysteme in smarten Umgebungen sammeln durch den Einsatz verschiedenster Sensoren viele Daten, um die Intentionen und zukĂŒnftigen AktivitĂ€ten der Nutzer zu berechnen. In den meisten FĂ€llen werden dabei mehr Informationen gesammelt als fĂŒr die ErfĂŒllung der Aufgabe des Assistenzsystems notwendig sind. Das Ziel dieser Dissertation ist die Konzeption und Implementierung von datenschutzfördernden Algorithmen fĂŒr die Weitergabe sensibler Sensor- und Kontextinformationen zu den Analysewerkzeugen der Assistenzsysteme. Die DatenschutzansprĂŒche der Nutzer werden dazu in IntegritĂ€tsbedingungen der Datenbanksysteme transformiert, welche die gesammelten Informationen speichern und auswerten. Ausgehend vom Informationsbedarf des Assistenzsystems und den DatenschutzbedĂŒrfnissen des Nutzers werden die gesammelten Daten so nahe wie möglich am Sensor durch Selektion, Reduktion, Kompression oder Aggregation durch die Datenschutzkomponente des Assistenzsystems verdichtet. Sofern nicht alle Informationen lokal verarbeitet werden können, werden Teile der Analyse an andere, an der Verarbeitung der Daten beteiligte Rechenknoten ausgelagert. Das Konzept wurde im Rahmen des PArADISE-Frameworks (Privacy-AwaRe Assistive Distributed Information System Environment) umgesetzt und u. a. in Zusammenarbeit mit dem DFG-Graduiertenkolleg 1424 (MuSAMA-Multimodal Smart Appliances for Mobile Application) anhand eines Beispielszenarios getestet

    Untersuchung zur Eignung von Graphdatenbanksystemen fĂŒr die Analyse von Informationsnetzwerken

    Get PDF
    In der vorliegenden Masterarbeit werden verschiedene Graphdatenbanksysteme in einer funktionalen und technischen Evaluation hinsichtlich ihrer Eignung fĂŒr ein aktuelles Forschungsvorhaben der Abteilung Datenbanken der UniversitĂ€t Leipzig untersucht. Ziel des Forschungsprojektes ist die Integration von Unternehmensdaten in ein Informationsnetzwerk und eine darauf aufbauendegraphenorientierte Analyse der Daten

    Deklarative Verarbeitung von Datenströmen in Sensornetzwerken

    Get PDF
    Sensors can now be found in many facets of every day life, and are used to capture and transfer both physical and chemical characteristics into digitally analyzable data. Wireless sensor networks play a central role in the proliferation of the industrial employment of wide-range, primarily autonomous surveillance of regions or buildings. The development of suitable systems involves a number of challenges. Current solutions are often designed with a specific task in mind, rendering them unsuitable for use in other environments. Suitable solutions for distributed systems are therefore continuously built from scratch on both the hardware and software levels, more often than not resulting in products in the market's higher price segments. Users would therefore profit from the reuse of existing modules in both areas of development. Once prefabricated solutions are available, the remaining challenge is to find a suitable combination of these solutions which fulfills the user's specifications. However, the development of suitable solutions often requires expert knowledge, especially in the case of wireless sensor networks in which resources are limited. The primary focus of this dissertation is energy-efficient data analysis in sensor networks. The AnduIN system, which is outlined in this dissertation, plays a central role in this task by reducing the software design phase to the mere formulation of the solution's specifications in a declarative query language. The system then reaches the user's defined goals in a fully automated fashion. Thus, the user is integrated into the design process only through the original definition of desired characteristics. The continuous surveillance of objects using wireless sensor networks depends strongly on a plethora of parameters. Experience has shown that energy consumption is one of the major weaknesses of wireless data transfer. One strategy for the reduction of energy consumption is to reduce the communication overhead by implementing an early analysis of measurement data on the sensor nodes. Often, it is neither possible nor practical to perform the complete data analysis of complex algorithms within the sensor network. In this case, portions of the analysis must be performed on a central computing unit. The AnduIN system integrates both simple methods as well as complex methods which are evaluated only partially in network. The system autonomously resolves which application fragments are executed on which components based on a multi-dimensional cost model. This work also includes various novel methods for the analysis of sensor data, such as methods for evaluating spatial data, data cleaning using burst detection, and the identification of frequent patters using quantitative item sets.Sensoren finden sich heutzutage in vielen Teilen des tĂ€glichen Lebens. Sie dienen dabei der Erfassung und ÜberfĂŒhrung von physikalischen oder chemischen Eigenschaften in digital auswertbare GrĂ¶ĂŸen. Drahtlose Sensornetzwerke als Mittel zur großflĂ€chigen, weitestgehend autarken Überwachung von Regionen oder GebĂ€uden sind Teil dieser BrĂŒcke und halten immer stĂ€rker Einzug in den industriellen Einsatz. die Entwicklung von geeigneten Systemen ist mit einer Vielzahl von Herausforderungen verbunden. Aktuelle Lösungen werden oftmals gezielt fĂŒr eine spezielle Aufgabe entworfen, welche sich nur bedingt fĂŒr den Einsatz in anderen Umgebungen eignen. Die sich wiederholende Neuentwicklung entsprechender verteilter Systeme sowohl auf Hardwareebene als auch auf Softwareebene, zĂ€hlt zu den wesentlichen GrĂŒnden, weshalb entsprechende Lösungen sich zumeist im hochpreisigen Segment einordnen. In beiden Entwicklungsbereichen ist daher die Wiederverwendung existierender Module im Interesse des Anwenders. Stehen entsprechende vorgefertigte Lösungen bereit, besteht weiterhin die Aufgabe, diese in geeigneter Form zu kombinieren, so dass den vom Anwender geforderten Zielen in allen Bereichen genĂŒgt wird. Insbesondere im Kontext drahtloser Sensornetzwerke, bei welchen mit stark beschrĂ€nkten Ressourcen umgegangen werden muss, ist fĂŒr das Erzeugen passender Lösungen oftmals Expertenwissen von Nöten. Im Mittelpunkt der vorliegenden Arbeit steht die energie-effiziente Datenanalyse in drahtlosen Sensornetzwerken. Hierzu wird mit \AnduIN ein System prĂ€sentiert, welches den Entwurf auf Softwareebene dahingehend vereinfachen soll, dass der Anwender lediglich die Aufgabenstellung unter Verwendung einer deklarativen Anfragesprache beschreibt. Wie das vom Anwender definierte Ziel erreicht wird, soll vollautomatisch vom System bestimmt werden. Der Nutzer wird lediglich ĂŒber die Definition gewĂŒnschter Eigenschaften in den Entwicklungsprozess integriert. Die dauerhafte Überwachung von Objekten mittels drahtloser Sensornetzwerke hĂ€ngt von einer Vielzahl von Parametern ab. Es hat sich gezeigt, dass insbesondere der Energieverbrauch bei der drahtlosen DatenĂŒbertragung eine der wesentlichen Schwachstellen ist. Ein möglicher Ansatz zur Reduktion des Energiekonsums ist die Verringerung des Kommunikationsaufwands aufgrund einer frĂŒhzeitigen Auswertung von Messergebnissen bereits auf den Sensorknoten. Oftmals ist eine vollstĂ€ndige Verarbeitung von komplexen Algorithmen im Sensornetzwerk aber nicht möglich bzw. nicht sinnvoll. Teile der Verarbeitungslogik mĂŒssen daher auf einer zentralen Instanz ausgefĂŒhrt werden. Das in der Arbeit entwickelte System integriert hierzu sowohl einfache als auch komplexe, nur teilweise im Sensornetzwerk verarbeitbare Verfahren. Die Entscheidung, welche Teile einer Applikation auf welcher Komponente ausgefĂŒhrt werden, wird vom System selbststĂ€ndig auf Basis eines mehrdimensionalen Kostenmodells gefĂ€llt. Im Rahmen der Arbeit werden weiterhin verschiedene Verfahren entwickelt, welche insbesondere im Zusammenhang mit der Analyse von Sensordaten von Interesse sind. Die erweiterten Algorithmen umfassen Methoden zur Auswertung von Daten mit rĂ€umlichem Bezug, das Data Cleaning mittels adaptiver Burst-Erkennung und die Identifikation von hĂ€ufigen Mustern ĂŒber quantitativen Itemsets

    Konzeption und Realisierung eines Sicherheitskonzepts zur sicheren Datenstromverarbeitung in einer verteilten AusfĂŒrhungsumgebung

    Get PDF
    Vorliegende Diplomarbeit entwickelt ein Sicherheitskonzept fĂŒr NexusDS. Das Konzept definiert Sicherheitsmechanismen um den Zugriff und die Verarbeitung von sensiblen und geschĂŒtzten Daten zu kontrollieren. Die Mechanismen beinhalten Funktionen um Daten zu Anonymisieren und zu Verschleiern. Die Entwicklung des Konzeptes beinhaltet die Abgrenzung von Sicherheit im Kontext von NexusDS, Erhebung von Anforderungen aus Anwendungsszenarien und NexusDS selbst, die Entwicklung entsprechend dienlicher Maßnahmen, deren Umsetzung in eine Sicherheitsarchitektur und eine prototypische Implementierung in NexusDS.This diploma thesis develops a security concept for NexusDS. The concept defines a set of mechanisms to limit the access on data with the purpose to control access on sensitive information. The mechanisms also include functions to mask and anonymize data. For the development of the concept, the thesis analyses the actual situation of the NexusDS and considers several scenarios of use. Based on this analyze, a security architecture for NexusDS was developed and integrated as a prototype implementation into NexusDS

    Datenbanksysteme 2

    Get PDF

    Aspektorientierte Datenhaltung in Produktkonfiguratoren: Anforderungen, Konzepte und Realisierung

    Get PDF
    Seit Mitte des 20. Jahrhunderts Ă€ußert sich der weltweite soziokulturelle Prozess der Individualisierung auch im geĂ€nderten Konsumverhalten. Dabei sehen sich Unternehmen zunehmend mit dem Wunsch nach kundenindividuellen Produkten zum Preis eines Ă€quivalenten Massenprodukts konfrontiert. WĂ€hrend durch produktionsspezifische Konzepte wie Modularisierung und Baukastenprinzip zwar eine enorme Variantenvielfalt erreicht werden kann, sind zur Beherrschung der damit verbundenen KomplexitĂ€t jedoch Produktkonfiguratoren als unterstĂŒtzende IT-Anwendungssysteme notwendig. Diese werden im ersten Teil der vorliegenden Arbeit eingefĂŒhrt und klassifiziert. Aufgrund des meist webbasierten Einsatzes von Produktkonfiguratoren mĂŒssen sie sich auch den Anforderungen der Globalisierung stellen. Dabei wirken sich die regionalen Unterschiede bezĂŒglich Sprache oder Preispolitik nicht nur auf die NutzeroberflĂ€che aus, sondern haben auch Einfluss auf die Struktur und Speicherung der Produkte. Zur GewĂ€hrleistung von DatenunabhĂ€ngigkeit ist zudem eine generische und orthogonale Integration jener als funktionale Aspekte bezeichneten Dimensionen erstrebenswert. HierfĂŒr werden im zweiten Teil das Paradigma der aspektorientierten Datenhaltung formuliert und Möglichkeiten zur Persistierung analysiert. Im dritten Teil erfolgt der Entwurf eines allgemeinen Referenzmodells fĂŒr die aspektorientierte Datenhaltung auf Basis des relationalen Datenmodells aufgrund der hohen Praxisrelevanz fĂŒr Datenbanksysteme. DarĂŒber hinaus findet auch der Vergleich geeigneter Zugriffstechniken fĂŒr die Auswertung jener Strukturen im Referenzmodell statt. Abschließend wird die Praxistauglichkeit des definierten Modells unter Beweis gestellt. Dazu erfolgt zunĂ€chst die Beschreibung einer prototypischen Implementierung der als Anwendungsbibliothek ausgelegten Zugriffsschicht. Deren Bewertung durch einen umfangreichen Performancetest bescheinigt letztlich ein effizientes Laufzeitverhalten
    • 

    corecore