3 research outputs found

    Abschlussbericht des Verbundprojekts Tools4BPEL

    Get PDF
    Unternehmensübergreifende Geschäftsprozesse werden zunehmend nach dem Paradigma der Services organisiert. Dabei stellen sich Fragen nach der Komponierbarkeit, Fehlerbehandlung, sowie der Rücksetzbarkeit (Kompensation) im Fehlerfall. In diesem Vorhaben werden Methoden und Werkzeuge zum Umgang mit solchen Fragen entwickelt und am Beispiel der Geschäftsprozess-Modellierungssprache BPEL und im Modellierungswerkzeug der Firma MEGA international erprobt. Es wurde zum einen der Übersetzer BPEL2oWFN entwickelt, der anhand einer Petrinetzsemantik für BPEL einen BPEL-Prozess in ein (offenes) Petrinetz transformiert. Zum anderen wurden Korrektheitskriterien (wie Bedienbarkeit und Verhaltenskompatibilität) für Services erarbeitet, Algorithmen zu ihrer Überprüfung entworfen und in Fiona implementiert. Die Algorithmen sind Petrinetz-basiert. Damit spielen Übersetzung und Analyse eng zusammen und ein vorhandener BPEL-Prozess kann auf bspw. Bedienbarkeit hin untersucht werden. In diesem Vorhaben wurden die Modellierungssprache BPEL4Chor, Choreographie-Erweiterungen für BPMN entwickelt, sowie die Transformation von BPMN nach BPEL angepasst, um den Weg von BPMN nach BPEL4Chor zu unterstützen. Weiterhin wurden Konzepte entwickelt, wie sich partner-übergreifende Fehlerbehandlung, Rücksetzbarkeit, sowie die Autonomie der Partner mittels BPEL4Chor darstellen lassen. BPEL4Chor kann als Standardsprache zur Spezifikation von Protokollen, die zwischen mehreren Partnern ablaufen, verwendet werden. Durch seine enge Verbindung mit BPEL kann BPEL4Chor sehr gut als Startpunkt für eine Webservice-Lösung verwendet werden

    Anforderungsbasierte Modellierung und Ausführung von Datenflussmodellen

    Get PDF
    Heutzutage steigen die Menge an Daten sowie deren Heterogenität, Änderungshäufigkeit und Komplexität stark an. Dies wird häufig als das "Big-Data-Problem" bezeichnet. Durch das Aufkommen neuer Paradigmen, wie dem Internet der Dinge oder Industrie 4.0, nimmt dieser Trend zukünftig noch weiter zu. Die Verarbeitung, Analyse und Visualisierung von Daten kann einen hohen Mehrwert darstellen, beispielsweise durch die Erkennung bisher unbekannter Muster oder durch das Vorhersagen von Ereignissen. Jedoch stellen die Charakteristiken von Big-Data, insbesondere die große Datenmenge und deren schnelle Änderung, eine große Herausforderung für die Verarbeitung der Daten dar. Herkömmliche, bisher angewandte Techniken, wie zum Beispiel Analysen basierend auf relationalen Datenbanken, kommen hierbei oft an ihre Grenzen. Des Weiteren ändert sich auch die Art der Anwender der Datenverarbeitung, insbesondere in Unternehmen. Anstatt die Datenverarbeitung ausschließlich von Programmierexperten durchzuführen, wächst die Anwendergruppe auch um Domänennutzer, die starkes Interesse an Datenanalyseergebnissen haben, jedoch diese nicht technisch umsetzen können. Um die Unterstützung von Domänennutzern zu ermöglichen, entstand ca. im Jahr 2007, im Rahmen der Web-2.0-Bewegung, das Konzept der Mashups, die es auf einfachem Wege erlauben sollen, Anwender aus unterschiedlichen Domänen beim Zusammenführen von Programmen, grafischen Oberflächen, und auch Daten zu unterstützen. Hierbei lag der Fokus vor allem auf Webdatenquellen wie RSS-Feeds, HTML-Seiten, oder weiteren XML-basierten Formaten. Auch wenn die entstandenen Konzepte gute Ansätze liefern, um geringe Datenmengen schnell und explorativ durch Domänennutzer zu verarbeiten, können sie mit den oben genannten Herausforderungen von Big-Data nicht umgehen. Die Grundidee der Mashups dient als Inspiration dieser Dissertation und wird dahingehend erweitert, moderne, komplexe und datenintensive Datenverarbeitungs- und Analyseszenarien zu realisieren. Hierfür wird im Rahmen dieser Dissertation ein umfassendes Konzept entwickelt, das sowohl eine einfache Modellierung von Datenanalysen durch Domänenexperten ermöglicht - und somit den Nutzer in den Mittelpunkt stellt - als auch eine individualisierte, effiziente Ausführung von Datenanalysen und -verarbeitung ermöglicht. Unter einer Individualisierung wird dabei verstanden, dass die funktionalen und nichtfunktionalen Anforderungen, die je nach Anwendungsfall variieren können, bei der Ausführung berücksichtigt werden. Dies erfordert einen dynamischen Aufbau der Ausführungsumgebung. Hierbei wird dem beschriebenen Problem durch mehrere Ebenen begegnet: 1) Die Modellierungsebene, die als Schnittstelle zu den Domänennutzern dient und die es erlaubt Datenverarbeitungsszenarien abstrakt zu modellieren. 2) Die Modelltransformationsebene, auf der das abstrakte Modell auf verschiedene ausführbare Repräsentationen abgebildet werden kann. 3) Die Datenverarbeitungsebene, mit der die Daten effizient in einer verteilten Umgebung verarbeitet werden, und 4) die Datenhaltungsebene, in der Daten heterogener Quellen extrahiert sowie Datenverarbeitungs- oder Analyseergebnisse persistiert werden. Die Konzepte der Dissertation werden durch zugehörige Publikationen in Konferenzbeiträgen und Fachmagazinen gestützt und durch eine prototypische Implementierung validiert
    corecore