38 research outputs found

    Synchronisation und Fehlertoleranz mobiler Clients in einem bestehenden System für kollaboratives Task-Management

    Get PDF
    Durch die zunehmende Globalisierung und Digitalisierung wird das Fachwissen der Wissenensarbeit zur Grundlage vieler Prozesse in hoch entwickelten Ländern. Gleichzeitig verlagert sich die Fertigung in Länder mit niedrigerem Lohnniveau. Die Wissensarbeit in der Entwicklung wird in den Prozessen von vielen, auf verschiedene Fachgebiete, spezialisierten Fachkräften kolloborativ verrichtet. Da wissensintensive Prozesse komplex und dynamisch sind, eignen sich bewährte Ansätze und Lösungen für standardisierte Prozesse nicht zur Unterstützung. Eine Möglichkeit der koordinierten Unterstützung von Wissensarbeit ist das Management von Checklisten. Im Rahmen des Forschungsprojekts proCollab sollen die Möglichkeiten des kolloborativen Checklisten-Managements zur Unterstützung der Wissensarbeit konzipiert und evaluiert werden. Im Konkreten soll Wissensarbeitern, die sich an verschiedenen Orten befinden, ermöglicht werden, sich auch anhand von mobilen Applikationen zu koordinieren. In dieser Arbeit werden der vorhandene proCollab-Prototyp und die mobilen Applikationen deshalb um ein Konzept zum Synchronisationsmechanismus und der Fehlertoleranz erweitert

    Transaktionen in föderierten Datenbanksystemen unter eingeschränkten Isolation Levels

    Get PDF
    Atomarität und Isolation von Transaktionen sind Schlüsseleigenschaften fortgeschrittener Anwendungen in föderierten Systemen, die aus verteilten, heterogenen Komponenten bestehen. Während Atomarität von praktisch allen realen Systemen durch das Zweiphasen- Commitprotokoll gewährleistet wird, unterstützt kein System eine explizite föderierte Concurrency Control. In der Literatur wurden zwar zahlreiche Lösungsansätze vorgeschlagen, doch sie haben wenig Einfluss auf Produkte genommen, weil sie die weitverbreiteten Isolation Levels nicht berücksichtigen, die Applikationen Optimierungsmöglichkeiten auf Kosten einer eingeschränkten Kontrolle über die Konsistenz der Daten erlauben. Diese Arbeit vergleicht zunächst existierende Definitionen für Isolation Levels und entwickelt eine neuartige, formale Charakterisierung für Snapshot Isolation, dem Isolation Level des Marktführers Oracle. Anschließend werden Algorithmen zur föderierten Concurrency Control vorgestellt, die beweisbar auch unter lokaler Snapshot Isolation die korrekte Ausführung föderierter Transaktionen gewährleisten, und Isolation Levels für föderierte Transaktionen diskutiert. Die Algorithmen sind in ein prototypisches föderiertes System integriert. Performancemessungen an diesem Prototyp zeigen ihre praktische Einsetzbarkeit.Atomicity and isolation of transactions are key requirements of advanced applications in federated systems consisting of distributed and heterogeneous components. While all existing federated systems support atomicity using the two-phase commit protocol, they lack support for federated concurrency control. Many possible solutions have been proposed in the literature, but they failed to make impact on real systems because they completely ignored the widely used concept of isolation levels, which offer optimization options to applications at the cost of less rigorous control over data consistency. This thesis compares existing definitions for isolation levels and develops a new characterization for Snapshot Isolation, an isolation level provided by Oracle, the market leader in the database field. We present algorithms for federated concurrency control that provably guarantee the correct execution of federated transactions even under local Snapshot Isolation, and discuss isolation levels for federated transactions. The algorithms are integrated into a federated system prototype. Performance measurements with this prototype show the practical viability of the developed methods

    Transaktionen in föderierten Datenbanksystemen unter eingeschränkten Isolation Levels

    Get PDF
    Atomarität und Isolation von Transaktionen sind Schlüsseleigenschaften fortgeschrittener Anwendungen in föderierten Systemen, die aus verteilten, heterogenen Komponenten bestehen. Während Atomarität von praktisch allen realen Systemen durch das Zweiphasen- Commitprotokoll gewährleistet wird, unterstützt kein System eine explizite föderierte Concurrency Control. In der Literatur wurden zwar zahlreiche Lösungsansätze vorgeschlagen, doch sie haben wenig Einfluss auf Produkte genommen, weil sie die weitverbreiteten Isolation Levels nicht berücksichtigen, die Applikationen Optimierungsmöglichkeiten auf Kosten einer eingeschränkten Kontrolle über die Konsistenz der Daten erlauben. Diese Arbeit vergleicht zunächst existierende Definitionen für Isolation Levels und entwickelt eine neuartige, formale Charakterisierung für Snapshot Isolation, dem Isolation Level des Marktführers Oracle. Anschließend werden Algorithmen zur föderierten Concurrency Control vorgestellt, die beweisbar auch unter lokaler Snapshot Isolation die korrekte Ausführung föderierter Transaktionen gewährleisten, und Isolation Levels für föderierte Transaktionen diskutiert. Die Algorithmen sind in ein prototypisches föderiertes System integriert. Performancemessungen an diesem Prototyp zeigen ihre praktische Einsetzbarkeit.Atomicity and isolation of transactions are key requirements of advanced applications in federated systems consisting of distributed and heterogeneous components. While all existing federated systems support atomicity using the two-phase commit protocol, they lack support for federated concurrency control. Many possible solutions have been proposed in the literature, but they failed to make impact on real systems because they completely ignored the widely used concept of isolation levels, which offer optimization options to applications at the cost of less rigorous control over data consistency. This thesis compares existing definitions for isolation levels and develops a new characterization for Snapshot Isolation, an isolation level provided by Oracle, the market leader in the database field. We present algorithms for federated concurrency control that provably guarantee the correct execution of federated transactions even under local Snapshot Isolation, and discuss isolation levels for federated transactions. The algorithms are integrated into a federated system prototype. Performance measurements with this prototype show the practical viability of the developed methods

    Fortschrittliche Datenflusskonzepte für flexible Prozessmodelle

    Get PDF
    Prozess-Management-Systeme haben in den letzten Jahren immer mehr an Bedeutung gewonnen. Das im AristaFlow-Projekt entwickelte ADEPT2 übertrifft die meisten der heute am Markt verfügbaren Systeme hinsichtlich Flexibilität und Prozesskorrektheit. In den mehr als zehn Jahren an Forschung und Entwicklung hat sich gezeigt, dass nahezu alle praxisrelevanten Prozesse mit Hilfe des Metamodells von ADEPT2 abgebildet werden können. Sowohl auf Konsistenz, als auch auf Robustheit muss selbst bei umfangreichen und langlaufenden Geschäftsprozessen nicht verzichtet werden. In Geschäftsprozessen sind neben der Abfolge der einzelnen Arbeitsschritte, dem Kontrollfluss, auch die zwischen den Schritten ausgetauschten Daten von Bedeutung. Dabei kann es sich um einfache Formulardaten, aber auch um komplexe XML-Daten und Dokumente handeln. Bereits heute sind Prozessschritte in ADEPT2 in der Lage, beliebige Daten auszutauschen. Die Darstellung dieser Daten ist jedoch in vielen Fällen nicht optimal. So müssen die Werte aus Formularfeldern einzeln zwischen den Prozessschritten ausgetauscht werden. Auch auf die Metadaten von Dokumenten (wie Dateigröße oder Dokumententyp) kann nur zugegriffen werden, wenn das Dokument bereits interpretiert wurde. Damit ADEPT2-Prozesse in Zukunft übersichtlicher erstellt werden können, stellen wir in dieser Arbeit erweiterte Datenflusskonzepte vor. Wir diskutieren, welche Vorteile die einzelnen Konzepte bieten und wie diese unter Berücksichtigung der geforderten Prozesskorrektheit realisiert werden können. Bei den vorgestellten neuen Datentypen handelt es sich um strukturierte Datentypen, um Listen, sowie um Aufzählungen. Diese drei Datentypen haben sich in der Praxis als nützlich erwiesen, da sich mit diesen und mit deren Kombination die meisten im Alltag auftretenden Probleme lösen lassen. Dabei dienen strukturierte Datentypen der Gruppierung von zusammengehörigen Daten zu einem neuen Datentyp. Listen versetzen den Prozessmodellierer in die Lage, Sachverhalte abzubilden, bei denen erst zur Prozesslaufzeit feststeht, wie viele Werte eines bestimmten Typs zusammengehörend gespeichert werden müssen. Dies ist möglich, da Listen eine variable Länge besitzen. Aufzählungs-Datentypen bieten die Möglichkeit, Einschränkungen für gewisse Szenarien festzulegen, in denen bspw. Verzweigungsentscheidungen anhand einer vorgegebenen, endlichen Menge getroffen werden sollen. Weiter beschreiben wir die Auswirkungen auf den Datenfluss, die sich ergeben, wenn Daten im Laufe eines Prozesses ungültig werden. Dies geschieht zumeist durch konsumierende Lesezugriffe. Anwendungen können nur dann auf Daten zugreifen, wenn ihnen die Struktur der Daten bekannt ist. Um den Aufwand bei der Anwendungsentwicklung zu verringern, stellen wir das Konzept benutzerdefinierter Funktionen vor. Diese dienen als Konverter zwischen Anwendungsbausteinen und benutzerdefinierten Datentypen. Abschließend vergleichen wir die vorgestellten Konzepte mit derzeit am Markt verfügbaren Systemen, sowie mit anderen Beschreibungssprachen für Geschäftsprozesse

    Reorganisation von Datenbanken: Auslöser, Verfahren, Nutzenermittlung

    Get PDF
    Beim Betrieb großer datenbankgestützter Anwendungssysteme kommt es im Laufe der Zeit oft zu einer nachhaltigen Verschlechterung der Systemleistung durch in den physischen Speicherungsstrukturen entstehende Degenerierungen (z.B. eingestreuter Freiplatz, Überlaufbereiche, migrierte Tupel, nicht mehr vorliegende Daten-Clusterung oder -sortierung). Die Beseitigung von Degenerierungen kann mit Datenbankreorganisationen erfolgen. Solche Wartungsarbeiten sind allerdings, selbst bei Online-Durchführung, meist mit Einschränkungen im normalen Datenbankbetrieb verbunden, die von einer temporären Verschlechterung der Systemleistung bis hin zu eingeschränkter Verfügbarkeit von Daten während der Reorganisationsdurchführung reichen. Diese Einschränkungen kollidieren immer mehr mit wachsenden Verfügbarkeitsanforderungen von Datenbank-Management-Systemen (DBMS). Eine Möglichkeit zur Verringerung der negativen Auswirkungen stellt die sorgfältige Auswahl und Priorisierung von Reorganisationsmaßnahmen dar. Damit können besonders nutzbringende Maßnahmen identifiziert und bevorzugt ausgeführt, andere zurückgestellt oder unterlassen werden

    Datentypgetriebene Dynamische Komposition von Prozessbeschreibungen

    Get PDF
    This diploma thesis examines approaches for the efficient handling of process variants by a workflow management system. The foundation is a publication process for the creation and publishment of a multimedia document in digital libraries. Its modeling and management has to satisfy a plurality of requirements. Using the best ideas from the examined approaches satisfying the requirements, a new concept is created. It is based on the dynamic composition of process description. A proof-of.concept demonstrates the feasibility on the example of an appropriate workflow management system

    Workflow- und Prozeßsynchronisation mit Interaktionsausdrücken und -graphen

    Get PDF
    Im Rahmen der Arbeit werden Interaktionsausdrücke und -graphen als deskriptiver Formalismus zur kompakten, übersichtlichen und modularen Spezifikation sowie zur effizienten Implementierung von Synchronisationsbedingungen unterschiedlichster Art konzipiert, theoretisch untersucht, praktisch implementiert und prototypisch zur Synchronisation von Workflows angewandt

    Ein neues Konzept für die semantische Suche in heterogenen Informationssystemen zu Fragestellungen aus Umwelt und Energie

    Get PDF
    Das Ziel der vorliegenden Arbeit besteht darin, ein neues Konzept für die semantische Suche in heterogenen Informationssystemen zu Fragestellungen aus Umwelt und Energie zu entwickeln, d.h. die Konzeption und Entwicklung einer Suchfunktion für Webportale, die zwar für den Nutzer so einfach wie herkömmliche Internet-Suchmaschinen funktioniert, jedoch qualitativ bessere, ggf. mehr Ergebnisse liefert als eine konventionelle Volltextsuche. Dazu werden, ausgehend von einer Grundarchitektur, vier Architekturvarianten entwor-fen, vorgestellt und in konkreten Umsetzungsbeispielen evaluiert

    Flexible, datengetriebene Workflows für den Publikationsprozess in digitalen Bibliotheken

    Get PDF
    Ziel der Arbeit war die Entwicklung eines Workflow-Management-Systems, das Dokumente aus externen Datenquellen einbinden kann und die flexible Adaption von Prozessinstanzen ermöglicht. Den transaktionalen Zugriff auf externe Datenquellen ermöglicht der entwickelte tx+YAWL-Ansatz. Für den konsistenten Zugriff auf externe Datenquellen wird ein Mehrebenen-Transaktionsmodell verwendet. Die flexible, datengetriebene Anpassung von Prozessinstanzen ermöglicht der FlexY-Ansatz. Prozessbausteine werden zur Laufzeit für die flexible Konstruktion und Ausführung von Prozessbereichen verwendet
    corecore