20 research outputs found

    Verteilung und Integration von Informationen im Verkehrsbereich

    Get PDF
    Verteilung und Mobilität spielen in der Verkehrstelematik eine große Rolle. Die verwendeten Datenquellen sind im Allgemeinen heterogen und von unterschiedlicher Qualität. Im Rahmen des Verbundprojektes OVID der Universität Karlsruhe (TH) bot das Institut für Programmstrukturen und Datenorganisation (IPD) im Sommersemester 2004 ein Seminar mit dem Titel "Verteilung und Integration von Informationen im Verkehrsbereich" an. In diesem Seminar wurden Fragestellungen untersucht, die sich mit den Anforderungen und existierenden Techniken für hochgradige Verteilung und Mobilität von Datenquellen im Verkehrsbereich beschäftigten. Die dabei erzielten Ergebnisse werden in diesem Bericht vorgestellt

    Untersuchung zur Eignung von Graphdatenbanksystemen für die Analyse von Informationsnetzwerken

    Get PDF
    In der vorliegenden Masterarbeit werden verschiedene Graphdatenbanksysteme in einer funktionalen und technischen Evaluation hinsichtlich ihrer Eignung für ein aktuelles Forschungsvorhaben der Abteilung Datenbanken der Universität Leipzig untersucht. Ziel des Forschungsprojektes ist die Integration von Unternehmensdaten in ein Informationsnetzwerk und eine darauf aufbauendegraphenorientierte Analyse der Daten

    Reorganisation von Datenbanken: Auslöser, Verfahren, Nutzenermittlung

    Get PDF
    Beim Betrieb großer datenbankgestützter Anwendungssysteme kommt es im Laufe der Zeit oft zu einer nachhaltigen Verschlechterung der Systemleistung durch in den physischen Speicherungsstrukturen entstehende Degenerierungen (z.B. eingestreuter Freiplatz, Überlaufbereiche, migrierte Tupel, nicht mehr vorliegende Daten-Clusterung oder -sortierung). Die Beseitigung von Degenerierungen kann mit Datenbankreorganisationen erfolgen. Solche Wartungsarbeiten sind allerdings, selbst bei Online-Durchführung, meist mit Einschränkungen im normalen Datenbankbetrieb verbunden, die von einer temporären Verschlechterung der Systemleistung bis hin zu eingeschränkter Verfügbarkeit von Daten während der Reorganisationsdurchführung reichen. Diese Einschränkungen kollidieren immer mehr mit wachsenden Verfügbarkeitsanforderungen von Datenbank-Management-Systemen (DBMS). Eine Möglichkeit zur Verringerung der negativen Auswirkungen stellt die sorgfältige Auswahl und Priorisierung von Reorganisationsmaßnahmen dar. Damit können besonders nutzbringende Maßnahmen identifiziert und bevorzugt ausgeführt, andere zurückgestellt oder unterlassen werden

    Gewinnung, Verwaltung und Anwendung von Performance-Daten zur Unterstützung des autonomen Datenbank-Tuning

    Get PDF
    In den letzten Jahrzehnten ist die Komplexität und Heterogenität von Informationssystemen rapide gestiegen. Die Folge ist, dass viele moderne IT-Systeme aufgrund ihrer heterogenen Architektur- und Applikationsvielfalt sehr kostenintensiv in der Entwicklung, fehleranfällig in der Nutzung und schwierig durch Administratoren kontrollier- bzw. konfigurierbar sind. Initiativen wie das Autonomic Computing helfen, der steigenden Komplexität Herr zu werden, indem sie den „Problemfaktor Mensch“ entlasten und Technik nutzen, um Technik zu verwalten. Durch die Anpassung bzw. Erweiterung der System-Umgebung versuchen derartige Ansätze neben derzeitiger manueller, reaktiver Performance-Optimierung, eine automatisierte reaktive und proaktive Performance-Kontrolle zu gewährleisten. Zentrale Grundvoraussetzung für eine autonome Infrastruktur ist eine verlässliche, globale Daten- bzw. Wissensbasis. Wir erarbeiten, wie Performance-Daten über das Verhalten und den Zustand des Systems mit aus dem Data-Warehousing bekannten Techniken gesammelt, konsolidiert, verwaltet und zur Laufzeit ausgewertet werden können. Neben der Architektur und den funktionalen Komponenten eines solchen Performance Data Warehouse wird zudem dessen Datenmodell erläutert und die Anbindung an das vorausgehende Monitoring sowie die nachfolgende Analyse spezifiziert. Mit dem Ziel, die menschliche Vorgehensweise „nachzuahmen“ und somit die Administratoren bei ihren Routine-Tätigkeiten zu entlasten, widmen wir uns der Konzipierung und Beschreibung einer möglichen Infrastruktur zur Automatisierung typischer Tuning-Aufgaben. Wir erarbeiten allgemein und anhand von Beispielen, wie Tuning-Wissen und bewährte Praktiken von DBAs abgebildet, in Form von Workflows formalisiert und zur Laufzeit für die Problemlösung angewendet werden können

    Datenqualität in Sensordatenströmen

    Get PDF
    Die stetige Entwicklung intelligenter Sensorsysteme erlaubt die Automatisierung und Verbesserung komplexer Prozess- und Geschäftsentscheidungen in vielfältigen Anwendungsszenarien. Sensoren können zum Beispiel zur Bestimmung optimaler Wartungstermine oder zur Steuerung von Produktionslinien genutzt werden. Ein grundlegendes Problem bereitet dabei die Sensordatenqualität, die durch Umwelteinflüsse und Sensorausfälle beschränkt wird. Ziel der vorliegenden Arbeit ist die Entwicklung eines Datenqualitätsmodells, das Anwendungen und Datenkonsumenten Qualitätsinformationen für eine umfassende Bewertung unsicherer Sensordaten zur Verfügung stellt. Neben Datenstrukturen zur effizienten Datenqualitätsverwaltung in Datenströmen und Datenbanken wird eine umfassende Datenqualitätsalgebra zur Berechnung der Qualität von Datenverarbeitungsergebnissen vorgestellt. Darüber hinaus werden Methoden zur Datenqualitätsverbesserung entwickelt, die speziell auf die Anforderungen der Sensordatenverarbeitung angepasst sind. Die Arbeit wird durch Ansätze zur nutzerfreundlichen Datenqualitätsanfrage und -visualisierung vervollständigt

    Vertrauenswürdige, adaptive Anfrageverarbeitung in dynamischen Sensornetzwerken zur Unterstützung assistiver Systeme

    Get PDF
    Assistenzsysteme in smarten Umgebungen sammeln durch den Einsatz verschiedenster Sensoren viele Daten, um die Intentionen und zukünftigen Aktivitäten der Nutzer zu berechnen. In den meisten Fällen werden dabei mehr Informationen gesammelt als für die Erfüllung der Aufgabe des Assistenzsystems notwendig sind. Das Ziel dieser Dissertation ist die Konzeption und Implementierung von datenschutzfördernden Algorithmen für die Weitergabe sensibler Sensor- und Kontextinformationen zu den Analysewerkzeugen der Assistenzsysteme. Die Datenschutzansprüche der Nutzer werden dazu in Integritätsbedingungen der Datenbanksysteme transformiert, welche die gesammelten Informationen speichern und auswerten. Ausgehend vom Informationsbedarf des Assistenzsystems und den Datenschutzbedürfnissen des Nutzers werden die gesammelten Daten so nahe wie möglich am Sensor durch Selektion, Reduktion, Kompression oder Aggregation durch die Datenschutzkomponente des Assistenzsystems verdichtet. Sofern nicht alle Informationen lokal verarbeitet werden können, werden Teile der Analyse an andere, an der Verarbeitung der Daten beteiligte Rechenknoten ausgelagert. Das Konzept wurde im Rahmen des PArADISE-Frameworks (Privacy-AwaRe Assistive Distributed Information System Environment) umgesetzt und u. a. in Zusammenarbeit mit dem DFG-Graduiertenkolleg 1424 (MuSAMA-Multimodal Smart Appliances for Mobile Application) anhand eines Beispielszenarios getestet
    corecore