178 research outputs found

    CORBA-basierte Workflow-Architekturen : Die objektorientierte Kernanwendung der Bausparkasse Mainz AG

    Get PDF
    Bei der Initialisierung von Workflow-Projekten zur Unterstützung von Geschäftsprozessen stellt sich die Frage, ob und warum ein Unternehmen angesichts der zahlreichen, auf dem Markt erhältlichen Standardsysteme ein individuelles Workflow-System entwickeln sollte. Eine Reihe von Argumenten deutet darauf hin, daß individuelle Eigenentwicklungen durchaus eine erwägenswerte Alternative zu den existierenden Standardsystemen darstellen. Aus der Diskussion dieses Aspektes ergibt sich u. a. die Frage, ob sich die Eigenentwicklung eines CORBA-konformen Workflow-Systems lohnt. Vielversprechende, bereits realisierte Systeme setzen auf die standardisierte, durchgängig objektorientierte Architektur der Object Management Group (OMG). Deren Standard \u27CORBA\u27 (Common Object Request Broker) bietet zukunftsweisende technologische Vorteile (z. B. Verteiltheit, Plattformunabhängigkeit, Interoperabilität, Modularität) und weist Synergieeffekte zum Workflow-Konzept auf. Die Bausparkasse Mainz AG (BKM) hat sich bereits 1996 für die Eigenentwicklung eines CORBA-konformen Workflow-Systems entschieden; die neue Kernanwendung \u27BKM-Joker\u27 der BKM wird als Abschluß des vorliegenden Beitrages skizziert

    23. DV-Treffen der Max-Planck-Institute : 15. - 17. November 2006 in Berlin

    No full text

    Benutzerverwaltung und Sicherheitskonzepte im Geschäftsprozessmanagement

    Get PDF
    Ein großer Teil der Geschäftsprozesse wird heutzutage in IT-gestützten Geschäftsprozessmanagementsystemen (Business Process Management System (BPMS)) abgebildet. Diese Umsetzung ermöglicht erhöhte Effizienz, Flexibilität, Transparenz und eine bessere Qualität der Prozesse in Unternehmen. Den geschäftlichen Möglichkeiten des Prozessmanagements stehen allerdings beträchtliche Gefahren bezüglich der Einhaltung von Sicherheitsvorschriften und gesetzlichen Bestimmungen gegenüber. Aus diesem Grund sind bei der automatisierten oder teilweise automatisierten Ausführung der Prozesse Mechanismen notwendig, um die Verletzungen der Sicherheitsrichtlinien zeitnah zu erfassen oder ganz auszuschließen. Diese Arbeit behandelt im Wesentlichen das große Gebiet der bestehenden Benutzerverwaltungs- und Sicherheitsansätze im Geschäftsprozessmanagement. Im Rahmen dieser Arbeit wird zudem eine Lösung zur automatisierten Verteilung und Verwaltung von Benutzerrollen in bestehenden IT-Systemen untersucht sowie das Sicherheitskonzept des Geschäftsprozessmanagementsystems Activiti analysiert und erweitert

    Prozessorientiertes Facility Management in verteilten Umgebungen

    Get PDF
    The term Facility Management describes one part of business management with the goal of supporting the management activities through the delivery of infrastructure, technology and services. It covers the whole life cycle of a structural facility. An integration of facility management in the active processes of an enterprise or an enterprise group will be substantially supported by the introduction of an efficient, flexible and future-safe computer aided facility management system. But still no universal standards were established in this area. With high expenditure adapted single solutions are the rule, harm however the demand for a save investment independently of proprietary special solutions of individual manufacturers. An analysis of existing business standards shows that these solutions are suitable only partly for combining the existing isolated solutions in a virtual enterprise group in order to create a sustainable architectural approach for a process oriented facility management. In doing so the communication must not be reduced to pure data exchange, but only stable interface definitions and accurately specified document formats can lead to a continuous solution. In order to make these solutions for developers and end users in the phases of the design, the implementation and maintenance equally clear, a common vocabulary of concepts is necessary. The usage of the Unified Modeling Language gives thereby a promising basis. The concrete models with the contained types and their relations to each other are described over meta models. The usage of XML as means to data exchange between the individual components and for the description of the meta models guarantees a flexible and future-safe development basis. In the context of the work based on use cases the conception for a framework with core components for process oriented facility management in distributed environments is designed. The framework Simplix conceived by the author integrates meta models for the description of concrete data, workflow and access schemes. The designed modules are embedded into a component-based architecture, in order to obtain a greatest possible flexibility for the deployment in heterogeneous IT environments. The framework Simplix covers four core components. The SchemaService describes the concrete product models, the associated processes are represented by the WorkflowService. The realization of the access rules is realized by the SecurityService. The exchange of workflow messages with the encapsulated project data is done by the ExchangeService in XML. The presented design focuses on the integration of existing business and IT standards. The design of the four core components describes a possibility of standardization in the area of CAFM, which connects only the relevant data over processes detached from conventional export/import scenarios: <ul> <li>Reduction of the complexity of conventional product models by a standardization over meta models, the actual product and process models can be designed for end users and to their vocabulary of concepts adapted</li> <li>Support of the Ad-Hoc-manipulation of concrete product and process models, only thereby can be achieved an integration of different vocabulary of concepts</li> <li>The usage of standardized methods in the analysis and design phases makes a fast technical implementation of the individual services possible, especially during the integration of external software systems as always necessary in the CAFM sector</li> <li>Due to a clear interface specification external offers for individual services can be provided and used, the continuous use of XML makes an effective long-term data storage in a standardized, self-describing language possible</li></ul>Der Begriff Facility Management bezeichnet eine Facette des unternehmerischen Managements, die es zum Ziel hat, die unternehmerischen Aktivitäten durch die Bereitstellung von Infrastruktur, Technologien und Diensten zu unterstützen und umfaßt den gesamten Lebenszyklus einer baulichen Anlage. Eine Einbettung von Facility Management in die laufenden Prozesse eines Unternehmens oder eines Unternehmensverbundes wird durch die Einführung eines leistungsfähigen, flexiblen und zukunftssicheren Computer Aided Facility Management Systems wesentlich unterstützt. Allerdings haben sich auf diesem Gebiet noch keine durchgängigen Standards etabliert, mit hohem Aufwand angepaßte Einzellösungen sind die Regel, verletzen aber die Forderung nach Investitionssicherheit unabhängig von den proprietären Speziallösungen einzelner Hersteller. Eine Analyse vorhandener Geschäftsstandards zeigt, daß diese Ansätze nur teilweise dazu geeignet sind, die vorhandenen Insellösungen in einem virtuellen Unternehmensverbund miteinander zu kombinieren, um einen tragfähigen Architekturansatz für ein prozeßorientiertes Facility Management zu schaffen. Dabei darf die Kommunikation nicht auf den reinen Datenaustausch reduziert werden, sondern nur stabile Schnittstellendefinitionen und exakt spezifizierte Dokumentenformate können zu einer durchgehenden Lösung führen. Die konkreten Modelle mit den enthaltenen Typen und deren Beziehungen zueinander werden über Metamodelle beschrieben. Der Einsatz von XML als Mittel zum Datenaustausch zwischen den einzelnen Komponenten und zur Beschreibung der Metamodelle garantiert eine flexible und zukunftssichere Entwicklungsgrundlage. Im Rahmen der Arbeit wird auf der Basis von Anwendungsfällen die Konzeption für ein Framework mit Kernkomponenten zum prozeßorientierten Facility Management in verteilten Umgebungen entworfen. Das vom Autor konzipierte Framework Simplix integriert Metamodelle zur Beschreibung konkreter Daten-, Workflow- und Zugriffsschemata. Die dazu geplanten Module werden in eine komponentenbasierte Architektur eingebettet, um eine größtmögliche Flexibilität beim Einsatz in heterogenen IT-Umgebungen zu erzielen. Das Framework Simplix umfaßt vier Kernkomponenten. Der SchemaService beschreibt die konkreten Produktmodelle, die zugehörigen Prozesse werden über den WorkflowService abgebildet. Die Realisierung der Mechanismen zur Zugriffskontrolle werden vom SecurityService übernommen. Der Austausch von Workflow-Nachrichten mit den gekapselten Projektdaten erfolgt über den ExchangeService in XML. Der vorgestellte Ansatz setzt auf die Integration vorhandener Geschäfts- und IT-Standards. Der Entwurf der vier Kernkomponenten beschreibt eine Möglichkeit der Standardisierung im CAFM-Sektor, die losgelöst von herkömmlichen Export-/Import-Szenarios funktioniert und nur die relevanten Daten über Prozesse verknüpft: <ul> <li>Reduzierung der Komplexität herkömmlicher Produktmodelle durch eine Standardisierung über Metamodelle, die eigentlichen Produkt- und Prozeßmodelle können für die Endanwender entworfen und an deren Begriffswelt angepaßt werden</li> <li>Unterstützung der Ad-Hoc-Manipulation von konkreten Produkt- und Prozeßmodellen, nur dadurch kann eine Integration verschiedener Begriffswelten erreicht werden</li> <li>der Einsatz standardisierter Techniken im Entwurf und dem Design ermöglicht eine schnelle technische Umsetzung der einzelnen Dienste gerade bei der im CAFM immer notwendigen Einbindung von Fremdsoftware</li> <li>auf Grund einer klaren Schnittstellenspezifikation können externe Serviceangebote für einzelne Dienste erstellt und genutzt werden, der durchgehende Einsatz von XML ermöglicht eine effektive Langzeitdatenhaltung in einem standardisierten, selbstbeschreibenden Format</li></ul&gt

    Vergleich und Bewertung physischer und logischer Fragmentierungsansätze im Umfeld mobiler Prozesse

    Get PDF
    Flexibilität, um auf sich schnell verändernde Situationen reagieren zu können, ist ein immer wichtigerer Aspekt im Prozessumfeld. Zur Erreichung dieser Flexibilität ist die mobile Nutzung von Prozessen, die sinnvoll nur durch die Fragmentierung von Prozessen möglich ist, von großer Bedeutung. Herkömmliche Workflow- beziehungsweise Prozessmanagementsysteme [35] mit zentralen Workflow-/Prozess-Management-Servern sind für Einsätze in verteilten mobilen Umgebungen durch die starke Fokussierung auf lokale Ressourcen zumeist wenig geeignet. Der zentrale Aspekt dieser Arbeit ist die Darstellung verschiedener theoretischer Ansätze aus dem Umfeld der verteilten Prozesse zur Unterstützung mobiler Prozesse. Aus den derzeit existierenden, theoretischen Ansätzen, die auch bereits teilweise umgesetzt wurden, sind aus Sicht dieser Arbeit, die beiden wichtigen Konzepte der physischen Fragmentierung sowie der logischen Fragmentierung, bei der Prozessinstanzen migriert werden, interessant, andere Ansätze, wie zum Beispiel agentenbasierte Ansätze, werden in dieser Arbeit nicht betrachtet. Abschließend wird am Beispiel eines kommerziellen Produktes - dem Microsoft BizTalk Server - gezeigt, inwiefern dieses zur Unterstützung mobiler Prozesse eingesetzt werden kann

    Anforderungsbasierte Modellierung und Ausführung von Datenflussmodellen

    Get PDF
    Heutzutage steigen die Menge an Daten sowie deren Heterogenität, Änderungshäufigkeit und Komplexität stark an. Dies wird häufig als das "Big-Data-Problem" bezeichnet. Durch das Aufkommen neuer Paradigmen, wie dem Internet der Dinge oder Industrie 4.0, nimmt dieser Trend zukünftig noch weiter zu. Die Verarbeitung, Analyse und Visualisierung von Daten kann einen hohen Mehrwert darstellen, beispielsweise durch die Erkennung bisher unbekannter Muster oder durch das Vorhersagen von Ereignissen. Jedoch stellen die Charakteristiken von Big-Data, insbesondere die große Datenmenge und deren schnelle Änderung, eine große Herausforderung für die Verarbeitung der Daten dar. Herkömmliche, bisher angewandte Techniken, wie zum Beispiel Analysen basierend auf relationalen Datenbanken, kommen hierbei oft an ihre Grenzen. Des Weiteren ändert sich auch die Art der Anwender der Datenverarbeitung, insbesondere in Unternehmen. Anstatt die Datenverarbeitung ausschließlich von Programmierexperten durchzuführen, wächst die Anwendergruppe auch um Domänennutzer, die starkes Interesse an Datenanalyseergebnissen haben, jedoch diese nicht technisch umsetzen können. Um die Unterstützung von Domänennutzern zu ermöglichen, entstand ca. im Jahr 2007, im Rahmen der Web-2.0-Bewegung, das Konzept der Mashups, die es auf einfachem Wege erlauben sollen, Anwender aus unterschiedlichen Domänen beim Zusammenführen von Programmen, grafischen Oberflächen, und auch Daten zu unterstützen. Hierbei lag der Fokus vor allem auf Webdatenquellen wie RSS-Feeds, HTML-Seiten, oder weiteren XML-basierten Formaten. Auch wenn die entstandenen Konzepte gute Ansätze liefern, um geringe Datenmengen schnell und explorativ durch Domänennutzer zu verarbeiten, können sie mit den oben genannten Herausforderungen von Big-Data nicht umgehen. Die Grundidee der Mashups dient als Inspiration dieser Dissertation und wird dahingehend erweitert, moderne, komplexe und datenintensive Datenverarbeitungs- und Analyseszenarien zu realisieren. Hierfür wird im Rahmen dieser Dissertation ein umfassendes Konzept entwickelt, das sowohl eine einfache Modellierung von Datenanalysen durch Domänenexperten ermöglicht - und somit den Nutzer in den Mittelpunkt stellt - als auch eine individualisierte, effiziente Ausführung von Datenanalysen und -verarbeitung ermöglicht. Unter einer Individualisierung wird dabei verstanden, dass die funktionalen und nichtfunktionalen Anforderungen, die je nach Anwendungsfall variieren können, bei der Ausführung berücksichtigt werden. Dies erfordert einen dynamischen Aufbau der Ausführungsumgebung. Hierbei wird dem beschriebenen Problem durch mehrere Ebenen begegnet: 1) Die Modellierungsebene, die als Schnittstelle zu den Domänennutzern dient und die es erlaubt Datenverarbeitungsszenarien abstrakt zu modellieren. 2) Die Modelltransformationsebene, auf der das abstrakte Modell auf verschiedene ausführbare Repräsentationen abgebildet werden kann. 3) Die Datenverarbeitungsebene, mit der die Daten effizient in einer verteilten Umgebung verarbeitet werden, und 4) die Datenhaltungsebene, in der Daten heterogener Quellen extrahiert sowie Datenverarbeitungs- oder Analyseergebnisse persistiert werden. Die Konzepte der Dissertation werden durch zugehörige Publikationen in Konferenzbeiträgen und Fachmagazinen gestützt und durch eine prototypische Implementierung validiert

    Gewinnung, Verwaltung und Anwendung von Performance-Daten zur Unterstützung des autonomen Datenbank-Tuning

    Get PDF
    In den letzten Jahrzehnten ist die Komplexität und Heterogenität von Informationssystemen rapide gestiegen. Die Folge ist, dass viele moderne IT-Systeme aufgrund ihrer heterogenen Architektur- und Applikationsvielfalt sehr kostenintensiv in der Entwicklung, fehleranfällig in der Nutzung und schwierig durch Administratoren kontrollier- bzw. konfigurierbar sind. Initiativen wie das Autonomic Computing helfen, der steigenden Komplexität Herr zu werden, indem sie den „Problemfaktor Mensch“ entlasten und Technik nutzen, um Technik zu verwalten. Durch die Anpassung bzw. Erweiterung der System-Umgebung versuchen derartige Ansätze neben derzeitiger manueller, reaktiver Performance-Optimierung, eine automatisierte reaktive und proaktive Performance-Kontrolle zu gewährleisten. Zentrale Grundvoraussetzung für eine autonome Infrastruktur ist eine verlässliche, globale Daten- bzw. Wissensbasis. Wir erarbeiten, wie Performance-Daten über das Verhalten und den Zustand des Systems mit aus dem Data-Warehousing bekannten Techniken gesammelt, konsolidiert, verwaltet und zur Laufzeit ausgewertet werden können. Neben der Architektur und den funktionalen Komponenten eines solchen Performance Data Warehouse wird zudem dessen Datenmodell erläutert und die Anbindung an das vorausgehende Monitoring sowie die nachfolgende Analyse spezifiziert. Mit dem Ziel, die menschliche Vorgehensweise „nachzuahmen“ und somit die Administratoren bei ihren Routine-Tätigkeiten zu entlasten, widmen wir uns der Konzipierung und Beschreibung einer möglichen Infrastruktur zur Automatisierung typischer Tuning-Aufgaben. Wir erarbeiten allgemein und anhand von Beispielen, wie Tuning-Wissen und bewährte Praktiken von DBAs abgebildet, in Form von Workflows formalisiert und zur Laufzeit für die Problemlösung angewendet werden können

    Computer Supported Cooperative Work Applications for the Design of Buildings based on an integrated Building Model Management

    Get PDF
    Gegenstand der vorliegenden Arbeit ist die Konzeption und prototypische Umsetzung von Techniken des Computer Supported Cooperative Work (CSCW) im Rahmen einer integrierten objektorientierten und dynamischen Bauwerksmodellverwaltung zur Unterstützung der Bauwerksplanung. Die Planung von Bauwerken ist durch einen hohen Grad an Arbeitsteiligkeit, aber auch durch eine schwache Strukturierung der ablaufenden Prozesse gekennzeichnet. Besonders durch den Unikatcharakter des Planungsgegenstands \'Bauwerk\' ergeben sich signifikante Unterschiede zum Entwurf anderer, durch Serienfertigung produzierter Industriegüter. Zunehmend wird die Planung von Bauwerken in Virtual Enterprises ausgeführt, die sich durch eine dynamische Organisationsstruktur, geographische Verteilung der Partner, schwer normierbare Informationsflüsse und eine häufig stark heterogene informationstechnische Infrastruktur auszeichnen. Zur rechnerinternen Repräsent! ation des Planungsgegenstands haben sich objektorientierte Bauwerksmodelle bewährt. Aufgrund der Veränderlichkeit der Bauwerke und deren rechnerinterner Repräsentation im Laufe des Bauwerkslebenszyklus ist eine dynamische Anpassung der Modelle unumgänglich. Derartige in Form von Taxonomien dargestellte dynamische Bauwerksmodellstrukturen können gemeinsam mit den in Instanzform vorliegenden konkreten Projektinformationen in entsprechenden Modellverwaltungssystemen (MVS) gehandhabt werden. Dabei wird aufgrund der Spezialisierung und Arbeitsteilung im Planungsprozess von einer inhaltlich verknüpften Partialmodellstruktur, die räumlich verteilt sein kann, ausgegangen. Die vorgeschlagenen Methoden zur Koordinierung der Teamarbeit in der Bauwerksplanung beruhen auf der Nutzung von CSCW–Techniken für \'Gemeinsame Informationsräume\' und \'Workgroup Computing\', die im Kontext der als Integrationsbasis fungierenden Modellverwaltungssysteme umgesetzt werden. Dazu werden die zur d! ynamischen Bauwerksmodellierung erforderlichen Metaebenenfunk! tionalitäten sowie Ansätze zur Implementierung von Modellverwaltungskernen systematisiert. Ebenso werden notwendige Basistechniken für die Realisierung von MVS untersucht und eine Architektur zur rollenspezifischen Präsentation dynamischer Modellinhalte vorgestellt. Da klassische Schichtenmodelle nicht auf die Verhältnisse in Virtual Enterprises angewendet werden können, wird eine physische Systemarchitektur mit einem zentralen Projektserver, Domänenservern und Domänenclients vorgestellt. Ebenso werden Techniken zur Sicherung des autorisierten Zugriffs sowie des Dokumentencharakters beschrieben. Zur Unterstützung der asynchronen Phasen der Kooperation wird der gemeinsame Informationsraum durch Mappingtechniken zur Propagation und Notifikation von Änderungsdaten bezüglich relevanter Modellinformationen ergänzt. Zur Unterstützung synchroner Phasen werden Techniken zur Schaffung eines gemeinsamen Kontexts durch relaxierte WYSIWIS–Präsentationen auf Basis der Modellinformationen! verbunden mit Telepresence–Techniken vorgestellt. Weiterhin werden Methoden zur Sicherung der Group–Awareness für alle Kooperationsphasen betrachtet.The thesis covers the conceptual design and the prototypical realisation of Computer Supported Cooperative Work (CSCW)– techniques within the scope of an integrated, object-oriented, dynamic model management system for the support of building planning activities. The planning of buildings is characterised by a high degree of collaboration but by a weak structuring of the processes, too. Significant differences between the design of buildings and industrial goods produced by series production are implied by the uniqueness of a building. Increasingly, the planning of buildings is accomplished by Virtual Enterprises. These are characterised by a dynamic organisation structure, geographic dispersion of the involved planning experts, information flows, which are hard to standardise, and a frequently very heterogeneous information-technology infrastructure. Object oriented building models have proven to be a suitable base for! the binary representation of planning subject information. Due to the changeability of both building structures and their binary representation during the building life cycle, a dynamical adaptation of the models is indispensable. Dynamic building models, which are represented by taxonomic information, can be handled together with actual project information, which is stored in taxonomy instances within an appropriate model management system. Due to the specialisation and the division of labour in the planning process, a semantic linked but spatial distributed partial model structure is applied. The recommended methods for the coordination of teamwork in the planning process are based on the application of CSCW-techniques for \'Shared Information Spaces\' and \'Workgroup Computing\' in the context of model management systems acting as an foundation for planning information integration. The required meta level functionalities for dynamic building modelling and appropriate! implementation approaches for modelling kernels are systemat! ised. The necessary base techniques for the realisation of model management systems are explored. An architecture for the role specific presentation of dynamic model content is introduced, too. Due to the inadequacy of conventional multi-tier models for an application in Virtual Enterprises, an appropriate physical system architecture with a central project server, domain servers and domain clients is introduced. The thesis covers techniques, which ensure the authorised access to information and the authenticity of planning documents, too. For an adequate support of the asynchronous phases of collaboration, the Shared Information Space is supplied with mapping mechanisms for the propagation and user notification of changes in the relevant planning information. Synchronous collaboration can be performed by means of relaxed WYSIWIS-presentations connected with telepresence mechanisms in order to create a shared context for the planners. Furthermore, methods for the provis! ion of group-awareness for all co-operation phases are treated

    Ein föderiertes Intrusion Detection System für Grids

    Get PDF

    Modellierung und Ausführung einer gekoppelten Festkörpersimulation mit Workflow-Choreographien

    Get PDF
    Im wissenschaftlichen Umfeld wird vermehrt die Workflow-Technologie eingesetzt, um Simulationen oder Berechnungen computergesteuert auszuführen. Die vorliegende Arbeit beschäftigt sich mit der Modellierung einer gekoppelten Festkörpersimulation als Workflow-Choreographie nach dem Top-Down-Ansatz. Auftauchende Herausforderungen werden identifiziert und mögliche Lösungsansätze beschrieben. Aufbauend auf dem Modellierungsergebnis werden die für die Ausführung der gekoppelten Festkörpersimulation benötigten Prozesse implementiert und vorgestellt. Die fertige Modellierung wird im Vergleich mit den Anforderungen beurteilt. Die Modellierung kann als Basis für zukünftige Arbeiten dienen und bietet Ansätze für aufbauende Untersuchungen. Dadurch wird eine Verfeinerung für zukünftige Workflowmodellierungen auf Basis einer Choreographie ermöglicht
    corecore