222 research outputs found

    Verbundoperationen über Datenströmen und deren Optimierung unter Verwendung dynamischer Metadaten

    Get PDF
    Technischer Fortschritt und Vernetzung haben zu einem enormen Zuwachs an kontinuierlich anfallenden Datenströmen geführt, aus denen immer schneller wertvolle Informationen abgeleitet werden sollen. Zur Verarbeitung von kontinuierlichen Anfragen über Datenströme etablieren sich daher Datenstrommanagementsysteme, die hauptsächlich im Hauptspeicher operieren und im Gegensatz zu Datenbanksystemen auf die Verarbeitung kontinuierlicher Anfragen über Datenströmen zugeschnitten sind. Bei der Implementierung dieser neuen Systeme hat sich die Übernahme des Konzeptes der relationalen Operatorgraphen aus der Welt der Datenbanken bewährt, wobei diese allerdings statt bedarfsgesteuert nun kontinuierlich und datengetrieben ausgewertet werden. Durch Zuweisen von Gültigkeitsintervallen zu den Datenstromelementen kann dabei das Problem gelöst werden, mit endlichen Ressourcen potentiell unbegrenzte Datenströme zu verarbeiten. Die Mächtigkeit solcher Systeme hängt wesentlich von der Verfügbarkeit effizienter wohldefinierter Techniken zur Verknüpfung von Informationen aus verschiedenen Datenströmen ab. Ziel dieser Arbeit ist es daher, das für Datenbanken bewährte Konzept des relationalen Verbundes auf die datengetriebene Datenstromverarbeitung mit Gültigkeitsintervallen zu übertragen. Dazu wird die Semantik der Verbundoperation für Datenströme mittels der Schnappschuss-Reduzierung formal auf die des Verbundes in der erweiterten relationalen Algebra zurückgeführt. Es werden mehrere Verbundalgorithmen vorgestellt und gezeigt, dass diese die gewünschte Semantik haben. Durch eine konsequente Parametrisierung der Verfahren bezüglich der Datenstrukturen zur Statusverwaltung werden verschiedenste Typen von Verbundprädikaten effizient unterstützt. Bewährte Techniken der Verbundberechnung mittels verschachtelter Schleifen, Hashing und Indexierung werden dabei für die Datenstromverarbeitung adaptiert. Mit dem temporalen Progressive-Merge-Join wird zudem ein Verfahren vorgestellt, dass den Verbund über Datenströmen mittels einer wertbasierten Sortierung berechnet. Zudem werden für die Verfahren verschiedenste Optimierungen vorgeschlagen, darunter für alle Verfahren die Verallgemeinerung auf mehr als zwei Datenströme. Zur Ermöglichung der automatischen Auswahl und Parametrisierung der Implementierungen anhand ihres prognostizierten Ressourcenverbrauchs werden diese in ein detailliertes Kostenmodell eingebettet. Da bestimmte Metadaten bezüglich der zu verarbeitenden Datenströmen bei der Registrierung kontinuierlicher Anfragen oftmals nicht vorliegen und sich zudem während der langen Laufzeit der Anfragen ändern können, ist es wichtig, jederzeit detaillierte Informationen bezüglich der Datenströme und des Systemverhaltens erheben und gegebenenfalls durch Anpassungen an der Verarbeitungsstrategie darauf reagieren können. Ein wesentlicher Teil der Arbeit ist daher der Fragestellung gewidmet, wie in einem Datenstrommanagementsystem dynamische Metadaten erhoben werden können. Dazu wird ein benutzerfreundliches Rahmenwerk vorgestellt, das es ermöglicht, dynamische Metadaten konsistent und effizient zu erheben. In Experimenten wird die dynamische Metadatenerhebung untersucht und auch für die Evaluation der vorgestellten Verbundoperationen eingesetzt. Zudem wird eine Technik vorgestellt, mit der kontinuierliche Anfragen zur Laufzeit restrukturiert werden können, und deren Anwendbarkeit für die Verbundoptimierung aufgezeigt

    Entwicklung und Gegenüberstellung von Methoden zur automatisierten Verifikation von ausführbaren Systemspezifikationen

    Get PDF
    Für die Entwicklung komplexer eingebetteter Systeme werden Techniken eingesetzt, die eine frühe Validierung der zu entwickelnden Systeme in Bezug auf funktionale Aspekte ermöglichen. Diese Techniken greifen in der Regel auf ausführbare Spezifikationsmodelle zurück. Eingebettete Systeme stellen meist auch Echtzeitsysteme dar. Dabei sind funktionale Anforderungen in der Regel zeitvariant, also zustandsabhängig und besitzen zeitliche Randbedingungen, so dass zeitliche und funktionale Aspekte gemeinsam betrachtet werden müssen. Für die Modellierung solcher ausführbaren Spezifikationen ist der Discrete-Event Formalismus besonders geeignet, da er eine vergleichsweise abstrakte parametrisierbare Beschreibung, unabhängig von Implementierungsdetails, ermöglicht. Für den systematischen Einsatz solcher Discrete-Event Modelle als ausführbare Spezifikationen, werden Methoden und Techniken zur Verifikation benötigt, um eine möglichst frühe Fehlererkennung bei der Systementwicklung zu ermöglichen.Gegenstand der Arbeit ist die Entwicklung und Gegenüberstellung von Methoden, die eine automatisierte Verifikation zeitbeschränkter funktionaler Eigenschaften in ausführbaren Spezifikation ermöglichen. Solche Methoden stehen für komplexe Multi-Domänen Modelle, wie sie in der Arbeit betrachtet werden, noch nicht zur Verfügung. Bei den Betrachtungen werden insbesondere die Spezifika der zugrunde liegenden Modelle und Eigenschaften sowie die möglichst automatisierte Anwendbarkeit der Verifikationsmethoden berücksichtigt.Ausgehend von grundlegenden Erwägungen werden zwei Anwendungsszenarien entwickelt, wobei im ersten Fall die vollständige formale Verifikation im Vordergrund steht und im zweiten Fall eine dynamische Überprüfung der Eigenschaften während der szenariobasierten Simulation favorisiert wird. Für die formale Verifikation wird ein Transformation-basierter Ansatz entwickelt, der eine Transformation des Verifikationsproblems in eine mathematische Beschreibung realisiert. Für die dynamische Überprüfung der Eigenschaften wird ein Assertion-basierter Ansatz benutzt, bei dem die geforderten Eigenschaften als temporallogische Formeln notiert werden. Es werden zur Prüfung der Eigenschaften unterschiedliche Techniken zur algorithmischen Auswertung bzw. zur symbolischen Cosimulation entwickelt.Beide Ansätze sind prototypisch für die Entwicklungsumgebung MLDesigner realisiert worden. Ausgehend von den Ergebnissen der Validierung werden Abschätzungen für das weitere Potential der Ansätze abgeleitet. Abschließend werden die Ansätze vergleichend gegenübergestellt und bewertet

    Anfragebearbeitung in einem Datenbank-Kernsystem für Geo-Anwendungen unter Verwendung einer generischen Komponente zur Anfrageoptimierung

    Full text link
    In erweiterbaren Datenbanksystemen müssen zur Berücksichtigung einer neuen Anwendungsdomäne neben neuen Datensätzen und benutzerdefinierten Datentypen auch neue Indexstrukturen zur Beschleunigung der Anfragebearbeitung, anwendungsbezogene Algorithmen und Operationen zur Erzeugung von Anfrageergebnissen sowie neue Schlüsselwörter für die Anfragesprache ergänzt werden können. Diese Arbeit beschreibt die in einem objektorientierten Datenbank-Kernsystems eingesetzten Konzepte zur Anfragebearbeitung und betont seine Erweiterbarkeit. Außerdem wird eine neue erweiterbare generische Komponente zur Anfrageoptimierung vorgestellt, die erstmals eine einfache Beschreibung sowohl der algebraischen Transformationen als auch der Optimierungsstrategie durch textuelle Optimierungsregeln ermöglicht. Dadurch werden zum einen eine leichte Änderbarkeit der Optimierungsstrategie und zum anderen eine einfache Berücksichtigung von Erweiterungen des Systems im Rahmen des Optimierungsprozesses sichergestellt

    Temporale Aspekte und Provenance-Anfragen im Umfeld des Forschungsdatenmanagements

    Get PDF
    Zur Verbesserung der Qualität wissenschaftlicher Arbeiten besteht Interesse an der Rückverfolgbarkeit und Nachnutzung von Forschungsdaten. Die Erhebung von diesen Daten erfolgt einerseits manuell, andererseits automatisiert durch Instrumente und Sensoren der im Forschungsgebiet genutzten Geräte. Das Leibniz-Institut für Ostseeforschung Warnemünde betreibt eine instrumentierte Messplattform (GODESS) zur Untersuchung von physikalischen und chemischen Umweltparametern der Ostsee in verschiedenen Tiefen. Durch den modularen Aufbau und Konfiguration der Plattform ergeben sich Änderungen in den Datenformaten sowie Anpassungen der Auswerte- und Analysefunktionen. Im Kontext von Datenbanken entspricht dies Änderungen des relationalen Datenbankschemas sowie von SQL-Funktionen. In dieser Arbeit wird untersucht, unter welchen Voraussetzungen veränderte SQL-Funktionen auf veränderte Schemata angewendet werden können. Dazu wird im Konzept gezeigt, wie Veränderungen von SQL-Funktionen durch Techniken der temporalen Datenhaltung aufgezeichnet werden können. Das Festhalten und Verfolgen von Schemaänderungen wird zusätzlich skizziert. Danach erfolgt die Untersuchung der Anwendbarkeit von Funktionen auf sich verändernde Schemata sowie die Anwendbarkeit von Funktionen bei Funktionsänderungen. Die Ergebnisse werden zusammenfassend in Form von Tabellen präsentiert. Ferner wird auf Möglichkeiten der automatisierten Kompensation der Änderungen zur Wahrung der weiteren Anwendbarkeit der Funktionen mittels Schemaintegrationstechniken eingegangen. Danach wird der Zusammenhang der Herkunft von Daten und Aspekten der temporalen Datenhaltung beschrieben. Es folgt eine prototypische Umsetzung der Versionierung von SQL-Funktionen. Abschließend wird die Arbeit zusammengefasst und ein Ausblick auf weitere mögliche und weiterführende Themen gegeben.To improve the quality of scientific work it is necessary to trace research data and provide it for a subsequent use. The data is acquired manually as well as automatically, generated with instruments and sensors of the involved devices in the particular scientific discipline. The Leibniz Institute for Baltic Sea Research Warnemünde runs a profiling monitoring station (GODESS) to measure physical and chemical environmental data at several depths of the Baltic Sea. The modular structure and configuration of the platform leads to changes in the data formats and the functions by which the data is analyzed. In the context of databases these changes correspond to changes in the relational schemata and SQL-functions. This thesis analyses the requirements to use changed SQL-functions on changed schemata. For that purpose it will be demonstrated how changes of SQL-functions could be recorded with techniques of temporal data management. Furthermore the recording of relational schema changes will be outlined. The applicability of SQL-functions on changed schemata and the applicability of SQL-functions on changed functions will be analyzed. The results will be summarized and presented in tables. Moreover options to compensate the changes to reuse the function are shown with techniques of schema integration. The link between data provenance and temporal data management will be described. A prototype to record changes of SQL-functions over a period of time is proposed. The thesis will be summarized and provides an outlook of possible future topics and further papers

    Nutzung mobiler Endgeräte zur Analyse von dynamischen Graphen im Raum vor einer Displaywall

    Get PDF
    Eine Graph-Visualisierung von Daten findet Einsatz in verschiedenen Domänen und erleichtert die Gewinnung von Erkenntnissen über Relationen. Viele Datensätze haben eine dynamische Natur und verändern sich über die Zeit. Dynamische Graphen kodieren die temporalen Änderungen der Objekte und ihrer Relationen. Der Vorteil der hochauflösenden Displaywand besteht darin, dass durch einen vergrößerten Darstellungsraum ein guter Überblick über die strukturellen Zusammenhänge entsteht. Der Einsatz der heutzutage sehr verbreiteten mobilen Endgeräte bietet eine lokale nutzerspezifische Darstellung für die Exploration und Manipulation der Graphen einschließlich ihrer dynamischen Komponente. Während sich viele Arbeiten auf die Analyse statischer Strukturen fokussieren, wird das Problem der Exploration und Visualisierung dynamischer Graphen vergleichsweise wenig adressiert. In der vorliegenden Arbeit werden die grundlegenden Aufgaben für die dynamischen Graphen sowie der Stand der Forschung über den interaktiven Raum der kombinierten Anwendung Displaywand und Mobilgerät untersucht. Auf dieser Basis werden die Interaktionskonzepte für die Exploration dynamischer Graphen und die Visualisierung der Änderungen erarbeitet. Der interaktive Raum bietet dabei die räumlichen Freiheitsgrade für die Gestaltung der Interaktionen. Die entstandene Konzeption dient abschließend als Grundlage für die prototypische Umsetzung in einem existierenden Projekt zur Exploration von Graphen mithilfe mobiler Endgeräte.:- Einleitung - Grundlagen und verwandte Arbeiten - Konzeption - Umsetzung - Zusammenfassung, Bewertung und Ausblick - LiteraturverzeichnisGraph visualization for data is used in various domains. It facilitates the extraction of knowledges about the relationships. Many datasets have a dynamic nature and change over time. Dynamic graphs ecode the temporal changes of objects and their relations. The advantage of the high-resolution displaywall is providing a good overview of the structural relations caused by an enlarged representation space. The use of nowadays widespread mobile devices provides a local user-specific view for the exploration of the graphs including their dynamic component. While many studies focuse on the analysis of static data structures, the issue of exploration and visualization of dynamic graphs is adressed by only a few works. This thesis investigates the basic tasks for dynamic graphs and state of research into the interaction space of combined applications of displaywall and mobile device. On this basis the interaction concepts for the exploration of dynamic graphs and the visualization of the changes are developed. The interaction space provides the spatial degrees of freedom for the design of interactions. The resulting set of concepts is the basis for the prototypical implementation in the existing project for the exploration of graphs using the mobile devices.:- Einleitung - Grundlagen und verwandte Arbeiten - Konzeption - Umsetzung - Zusammenfassung, Bewertung und Ausblick - Literaturverzeichni

    Systemunterstützung zur automatischen Anpassung von Workflows zur Laufzeit

    Get PDF
    In dieser Arbeit wird ein Ansatz zur automatischen Berechnung und Ausführung von strukturellen Anpassungsmöglichkeiten für Workflows auf Basis von Kontextinformationen entwickelt. Zur Sicherstellung der semantischen Korrektheit der Anpassungsmöglichkeiten werden zwei Arten von Einschränkungen berücksichtigt: Zustandsbezogene Einschränkungen (ZBE) und Aktivitätsabhängigkeiten (AA). ZBEs spezifizieren Einschränkungen zwischen Anpassungsoperationen und dem Ausführungszustand des Workflows. AAs beschreiben temporale Beziehungen zwischen Aktivitäten eines Workflows
    corecore