10 research outputs found

    Transaktionen in föderierten Datenbanksystemen unter eingeschränkten Isolation Levels

    Get PDF
    Atomarität und Isolation von Transaktionen sind Schlüsseleigenschaften fortgeschrittener Anwendungen in föderierten Systemen, die aus verteilten, heterogenen Komponenten bestehen. Während Atomarität von praktisch allen realen Systemen durch das Zweiphasen- Commitprotokoll gewährleistet wird, unterstützt kein System eine explizite föderierte Concurrency Control. In der Literatur wurden zwar zahlreiche Lösungsansätze vorgeschlagen, doch sie haben wenig Einfluss auf Produkte genommen, weil sie die weitverbreiteten Isolation Levels nicht berücksichtigen, die Applikationen Optimierungsmöglichkeiten auf Kosten einer eingeschränkten Kontrolle über die Konsistenz der Daten erlauben. Diese Arbeit vergleicht zunächst existierende Definitionen für Isolation Levels und entwickelt eine neuartige, formale Charakterisierung für Snapshot Isolation, dem Isolation Level des Marktführers Oracle. Anschließend werden Algorithmen zur föderierten Concurrency Control vorgestellt, die beweisbar auch unter lokaler Snapshot Isolation die korrekte Ausführung föderierter Transaktionen gewährleisten, und Isolation Levels für föderierte Transaktionen diskutiert. Die Algorithmen sind in ein prototypisches föderiertes System integriert. Performancemessungen an diesem Prototyp zeigen ihre praktische Einsetzbarkeit.Atomicity and isolation of transactions are key requirements of advanced applications in federated systems consisting of distributed and heterogeneous components. While all existing federated systems support atomicity using the two-phase commit protocol, they lack support for federated concurrency control. Many possible solutions have been proposed in the literature, but they failed to make impact on real systems because they completely ignored the widely used concept of isolation levels, which offer optimization options to applications at the cost of less rigorous control over data consistency. This thesis compares existing definitions for isolation levels and develops a new characterization for Snapshot Isolation, an isolation level provided by Oracle, the market leader in the database field. We present algorithms for federated concurrency control that provably guarantee the correct execution of federated transactions even under local Snapshot Isolation, and discuss isolation levels for federated transactions. The algorithms are integrated into a federated system prototype. Performance measurements with this prototype show the practical viability of the developed methods

    Transaktionen in föderierten Datenbanksystemen unter eingeschränkten Isolation Levels

    Get PDF
    Atomarität und Isolation von Transaktionen sind Schlüsseleigenschaften fortgeschrittener Anwendungen in föderierten Systemen, die aus verteilten, heterogenen Komponenten bestehen. Während Atomarität von praktisch allen realen Systemen durch das Zweiphasen- Commitprotokoll gewährleistet wird, unterstützt kein System eine explizite föderierte Concurrency Control. In der Literatur wurden zwar zahlreiche Lösungsansätze vorgeschlagen, doch sie haben wenig Einfluss auf Produkte genommen, weil sie die weitverbreiteten Isolation Levels nicht berücksichtigen, die Applikationen Optimierungsmöglichkeiten auf Kosten einer eingeschränkten Kontrolle über die Konsistenz der Daten erlauben. Diese Arbeit vergleicht zunächst existierende Definitionen für Isolation Levels und entwickelt eine neuartige, formale Charakterisierung für Snapshot Isolation, dem Isolation Level des Marktführers Oracle. Anschließend werden Algorithmen zur föderierten Concurrency Control vorgestellt, die beweisbar auch unter lokaler Snapshot Isolation die korrekte Ausführung föderierter Transaktionen gewährleisten, und Isolation Levels für föderierte Transaktionen diskutiert. Die Algorithmen sind in ein prototypisches föderiertes System integriert. Performancemessungen an diesem Prototyp zeigen ihre praktische Einsetzbarkeit.Atomicity and isolation of transactions are key requirements of advanced applications in federated systems consisting of distributed and heterogeneous components. While all existing federated systems support atomicity using the two-phase commit protocol, they lack support for federated concurrency control. Many possible solutions have been proposed in the literature, but they failed to make impact on real systems because they completely ignored the widely used concept of isolation levels, which offer optimization options to applications at the cost of less rigorous control over data consistency. This thesis compares existing definitions for isolation levels and develops a new characterization for Snapshot Isolation, an isolation level provided by Oracle, the market leader in the database field. We present algorithms for federated concurrency control that provably guarantee the correct execution of federated transactions even under local Snapshot Isolation, and discuss isolation levels for federated transactions. The algorithms are integrated into a federated system prototype. Performance measurements with this prototype show the practical viability of the developed methods

    Gewinnung, Verwaltung und Anwendung von Performance-Daten zur Unterstützung des autonomen Datenbank-Tuning

    Get PDF
    In den letzten Jahrzehnten ist die Komplexität und Heterogenität von Informationssystemen rapide gestiegen. Die Folge ist, dass viele moderne IT-Systeme aufgrund ihrer heterogenen Architektur- und Applikationsvielfalt sehr kostenintensiv in der Entwicklung, fehleranfällig in der Nutzung und schwierig durch Administratoren kontrollier- bzw. konfigurierbar sind. Initiativen wie das Autonomic Computing helfen, der steigenden Komplexität Herr zu werden, indem sie den „Problemfaktor Mensch“ entlasten und Technik nutzen, um Technik zu verwalten. Durch die Anpassung bzw. Erweiterung der System-Umgebung versuchen derartige Ansätze neben derzeitiger manueller, reaktiver Performance-Optimierung, eine automatisierte reaktive und proaktive Performance-Kontrolle zu gewährleisten. Zentrale Grundvoraussetzung für eine autonome Infrastruktur ist eine verlässliche, globale Daten- bzw. Wissensbasis. Wir erarbeiten, wie Performance-Daten über das Verhalten und den Zustand des Systems mit aus dem Data-Warehousing bekannten Techniken gesammelt, konsolidiert, verwaltet und zur Laufzeit ausgewertet werden können. Neben der Architektur und den funktionalen Komponenten eines solchen Performance Data Warehouse wird zudem dessen Datenmodell erläutert und die Anbindung an das vorausgehende Monitoring sowie die nachfolgende Analyse spezifiziert. Mit dem Ziel, die menschliche Vorgehensweise „nachzuahmen“ und somit die Administratoren bei ihren Routine-Tätigkeiten zu entlasten, widmen wir uns der Konzipierung und Beschreibung einer möglichen Infrastruktur zur Automatisierung typischer Tuning-Aufgaben. Wir erarbeiten allgemein und anhand von Beispielen, wie Tuning-Wissen und bewährte Praktiken von DBAs abgebildet, in Form von Workflows formalisiert und zur Laufzeit für die Problemlösung angewendet werden können

    Hochleistungs-Transaktionssysteme: Konzepte und Entwicklungen moderner Datenbankarchitekturen

    Get PDF
    Das Buch richtet sich an Informatiker in Studium, Lehre, Forschung und Entwicklung, die an neueren Entwicklungen im Bereich von Transaktions- und Datenbanksystemen interessiert sind. Es entspricht einer überarbeiteten Version meiner im Februar 1993 vom Fachbereich Informatik der Universität Kaiserslautern angenommenen Habilitationsschrift. Neben der Präsentation neuer Forschungsergebnisse erfolgen eine breite Einführung in die Thematik sowie überblicksartige Behandlung verschiedener Realisierungsansätze, wobei auf eine möglichst allgemeinverständliche Darstellung Wert gelegt wurde. Der Text wurde durchgehend mit Marginalien versehen, welche den Aufbau der Kapitel zusätzlich verdeutlichen und eine schnelle Lokalisierung bestimmter Inhalte unterstützen sollen

    Effiziente Verarbeitung von Produktstrukturen in weltweit verteilten Entwicklungsumgebungen

    Get PDF
    Die Produktentwicklung ist ein zeitaufwändiger, kostenintensiver Prozess. Unterstützung bieten die so genannten Produktdatenmanagement-Systeme (PDM Systeme), die Informationen über alle produktrelevanten Daten verwalten. Dazu setzen diese Systeme typischerweise auf relationalen Datenbankmanagementsysteme auf, die sie jedoch mehr oder weniger als primitives Dateisystem verwenden. In lokalen Entwicklungsumgebungen werden PDM-Systeme bereits zum Teil sehr erfolgreich eingesetzt, in geographisch verteilten Szenarien jedoch verhindern die extrem langen Antwortzeiten einiger Benutzeraktionen einen profitablen Einsatz

    Laufzeitadaption von zustandsbehafteten Datenstromoperatoren

    Get PDF
    Änderungen von Datenstromanfragen zur Laufzeit werden insbesondere durch zustandsbehaftete Datenstromoperatoren erschwert. Da die Zustände im Arbeitsspeicher abgelegt sind und bei einem Neustart verloren gehen, wurden in der Vergangenheit Migrationsverfahren entwickelt, um die inneren Operatorzustände bei einem Änderungsvorgang zu erhalten. Die Migrationsverfahren basieren auf zwei unterschiedlichen Ansätzen - Zustandstransfer und Parallelausführung - sind jedoch aufgrund ihrer Realisierung auf eine zentrale Ausführung beschränkt. Mit wachsenden Anforderungen in Bezug auf Datenmengen und Antwortzeiten werden Datenstromsysteme vermehrt verteilt ausgeführt, beispielsweise durch Sensornetze oder verteilte IT-Systeme. Zur Anpassung der Anfragen zur Laufzeit sind existierende Migrationsstrategien nicht oder nur bedingt geeignet. Diese Arbeit leistet einen Beitrag zur Lösung dieser Problematik und zur Optimierung der Migration in Datenstromsystemen. Am Beispiel von präventiven Instandhaltungsstrategien in Fabrikumgebungen werden Anforderungen für die Datenstromverarbeitung und insbesondere für die Migration abgeleitet. Das generelle Ziel ist demnach eine möglichst schnelle Migration bei gleichzeitiger Ergebnisausgabe. In einer detaillierten Analyse der existierenden Migrationsstrategien werden deren Stärken und Schwächen bezüglich der gestellten Anforderungen diskutiert. Für die Adaption von laufenden Datenstromanfragen wird eine allgemeine Methodik vorgestellt, welche als Basis für die neuen Strategien dient. Diese Adaptionsmethodik unterstützt zwei Verfahren zur Bestimmung von Migrationskonfigurationen - ein numerisches Verfahren für periodische Datenströme und ein heuristisches Verfahren, welches auch auf aperiodische Datenströme angewendet werden kann. Eine wesentliche Funktionalität zur Minimierung der Migrationsdauer ist dabei die Beschränkung auf notwendige Zustandswerte, da in verteilten Umgebungen eine Übertragungszeit für den Zustandstransfer veranschlagt werden muss - zwei Aspekte, die bei existierenden Verfahren nicht berücksichtigt werden. Durch die Verwendung von neu entwickelten Zustandstransfermethoden kann zudem die Übertragungsreihenfolge der einzelnen Zustandswerte beeinflusst werden. Die Konzepte wurden in einem OSGi-basierten Prototyp implementiert und zudem simulativ analysiert. Mit einer umfassenden Evaluierung wird die Funktionsfähigkeit aller Komponenten und Konzepte demonstriert. Der Performance-Vergleich zwischen den existierenden und den neuen Migrationsstrategien fällt deutlich zu Gunsten der neuen Strategien aus, die zudem in der Lage sind, alle Anforderungen zu erfüllen

    Konfigurierbare Visualisierung komplexer Prozessmodelle

    Get PDF
    Die in heutigen Unternehmen durch Informationssysteme unterstützten Geschäftsprozesse werden zunehmend komplexer. Häufig existieren keine zentralen Steuereinheiten, sondern die Ausführung eines Prozesses ist auf viele heterogene Systeme verteilt. Ohne entsprechende Werkzeugunterstützung ist es daher schwer, einen Überblick über den aktuellen Ausführungsstatus solcher fragmentierter Prozesse zu bewahren. Eine Visualisierungskomponente, welche die Prozesse (inkl. relevanter Applikationsdaten) durchgängig darstellt, ist hier essenziell. Allerdings muss eine solche Komponente in der Lage sein, die Informationsbedürfnisse der verschiedenen Benutzergruppen adäquat zu befriedigen. Typischerweise gibt es hier unterschiedliche Anforderungen an eine Prozessvisualisierung im Hinblick auf Detaillierungsgrad, angezeigte Daten und graphische Informationsaufbereitung. Heutige Werkzeuge stellen Prozesse meist in exakt derselben Form dar, wie sie vom Prozessmodellierer ursprünglich gezeichnet worden sind. Eine flexible Anpassung der Darstellung an die Bedürfnisse des Betrachters ist nicht oder nur in sehr engen Grenzen möglich. Diese Arbeit stellt mit Proviado ein Rahmenwerk für die konfigurierbare Visualisierung komplexer Prozesse vor. Proviado ermöglicht sowohl eine strukturelle als auch eine graphische Anpassung der Prozessvisualisierung. Mit Hilfe eines mächtigen View-Mechanismus können Prozessmodelle strukturell an die Bedürfnisse ihrer Betrachter angepasst werden, indem Prozesselemente reduziert oder zu abstrakten Elementen aggregiert werden. Es werden View-Bildungsoperationen bereitgestellt, die in mehreren Schichten organisiert sind. Mittels Konfigurationsparametern, die die Eigenschaften der resultierenden Prozessmodelle beeinflussen, kann die View-Bildung flexibel konfiguriert und an die Bedürfnisse des jeweiligen Anwendungsfalls angepasst werden. Weitere Möglichkeiten zur graphischen Konfiguration einer Prozessvisualisierung bietet ein fortschrittlicher Template-Mechanismus. Zum einen können die für die Visualisierung zu verwendenden Symbole einfach definiert werden. Zum anderen erlaubt dieser Mechanismus eine flexible Zuordnung der Symbole einer Prozessnotation zu Prozesselementen. Diese Zuordnung kann entweder statisch (z.B. abhängig vom Prozesselementtyp) oder dynamisch, d.h. abhängig von Laufzeitdaten (z.B. Ausführungszustand), erfolgen. Diese beiden Basismechanismen werden ergänzt um Konzepte, die für die Realisierung einer umfassenden Visualisierungskomponente unverzichtbar sind. Dazu zählen unter anderem die Anbindung prozessunterstützender Systeme (d.h. die Integration von Modell- und Laufzeitdaten) sowie Konzepte für das automatische Layout dynamisch berechneter Prozessgraphen. Insgesamt können mit Proviado Prozessvisualisierungen strukturell und graphisch an die Bedürfnisse des jeweiligen Betrachters angepasst werden. Die entsprechenden Darstellungen bieten allen in die Prozesse involvierten Personen eine wesentlich bessere Unterstützung bei der täglichen Arbeit als derzeit verfügbare Systeme

    Dynamisch erweiterbares Trading mit heterogenen Softwarekomponenten

    Get PDF
    Universal Component Trading (UComT) ist ein neuer Ansatz zum Trading mit (objektorientierten) Softwarekomponenten. Component Trading steht für die Anwendung des Trading-Ansatzes auf objektorientierte Komponentenmodelle (z.B. Java Beans/EJB, CORBA Components, COM, CLI/.NET). Der Begriff Universal in dem Namen bedeutet, dass die Trading-Architektur in der Lage ist, mit beliebigen Komponentenmodellen sowohl als Dienstanbieter (Exporter) als auch als Dienstnutzer (Importer) zusammenzuarbeiten. Ausgehend von einem Metamodell, das die Gemeinsamkeiten der objektorientierten Softwarekomponentenmodelle abbildet, wird mit der Simple XML-based Component Description Language (SXCDL) eine modellübergreifende Strukturbeschreibungssprache in XML-Form entwickelt, in die beliebige Dienstbeschreibungssprachen dynamisch zur Laufzeit integriert werden können. Eine einzelne Komponente kann zahlreiche Dienstbeschreibungen besitzen, die gleiche oder unterschiedliche Sprachen verwenden und von gleichen oder unterschiedlichen Autoren stammen. Der Trader im UComT-Modell bietet dem Importer ferner eine vielfältige Unterstützung für die Nutzung der Komponenten. Zur Validierung der Forschungsergebnisse wird im Rahmen der Arbeit ein Prototyp für den Trader-Server (in C#) und zwei Prototypen für den Trader-Client (in C# und in Java) entwickelt, die die zentralen Konzepte des UComT-Modells realisiere
    corecore